Последние сообщения

Страницы: [1] 2 3 ... 10
1
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:37:23  »

Продолжение здесь: https://forum.msevm.ru/index.php?topic=40.0
2
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:36:02  »
Электронный журнал "РадиоЛоцман" 2023, 07-08

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=949
3
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:34:38  »
Электронный журнал "РадиоЛоцман" 2023, 05-06

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=947
4
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:32:44  »
Электронный журнал "РадиоЛоцман" 2023, 03-04

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=945
5
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:30:58  »
Электронный журнал "РадиоЛоцман" 2023, 01-02

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=943
6
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:27:38  »
Электронный журнал "РадиоЛоцман" 2022, 11-12

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=939
7
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:26:16  »
Электронный журнал "РадиоЛоцман" 2022, 09-10

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=937
8
2011 / Re: Журнал РадиоЛоцман
« Последний ответ от john Ноября 07, 2023, 22:12:44  »
Электронный журнал "РадиоЛоцман" 2022, 07-08

https://www.rlocman.ru/forum/krfilesmanager.php?do=downloadfile&dlfileid=935
9
Источники питания / Re: Простой Усилитель Мощности?
« Последний ответ от digitalman Апреля 13, 2023, 13:29:54  »
Вот намотал новые катушки для генератора.
Ротор с магнитами кстати тоже готов. Но работы ещё много...
10
Искусственный интеллект / Re: История развития ИИ
« Последний ответ от digitalman Апреля 06, 2023, 22:52:59  »
Цитировать
Айтишники, задумайтесь! Сингулярность, о которой вы мечтали, пришла

Размещаю текст открытого письма о приостановке экспериментов с ИИ. Илон Маск подписал, Игорь Шнуренко и ещё 11К человек со всего мира, включая меня, тоже поставили свою подпись.

Элиезер Юдковски не подписал, потому как считает, что нужна пауза не на полгода, а минимум на 30 лет, а ещё лучше - разбомбить немедленно DATA центры, где цифрозмия вырастили.

Поставьте на паузу эксперименты с ИИ"(открытое письмо): https://futureoflife.org/open-letter/pause-giant-ai-e..

Статья Юдковского "Паузы в развитии ИИ недостаточно. Прикройте всю эту лавочку":

https://time.com/6266923/ai-eliezer-yudkowsky-open-le..

Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо

Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.

Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования и признано ведущими лабораториями искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Asilomar , продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами . К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач , и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми.Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых». модели». Мы согласны. Этот момент сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4 . Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ??паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для общества. Мы можем сделать это здесь. Наслаждаемся долгим летом с искусственным интеллектом, а не бросаемся в осень неподготовленными.
Страницы: [1] 2 3 ... 10
Последние сообщения на форуме: