Немного отредактирую по ходу, без потери смысла.
Люди опасаются развития ИИ и внедрения его в повседневную жизнь: в качестве собеседника, репетитора и т д.
Насколько же реальны опасения и как дело с этим обстоит у тех людей, которые развитием искуственного интеллекта занимаются непосредственно?
Далее из подкаста рассуждения Гэри Маркуса (исследователя в области ИИ)
Гэри начал программировать в 8 лет и уже в детстве влюбился в ИИ. В старших классах он купил себе хороший компьютер, работал и создал несколько компаний, занимающихся ИИ, Но сегодня, в 2023 году, он серьезно озадачен безопасностью ИИ. И вот что говорит:
"Одна из причин для беспокойства - дезинформация. А точнее - возможность того, что недобросовестные деятели создадут такой цунами дезинформации, какого мы ещё никогда не видели. ИИ как инструмент создаёт убедительные рассказы о чем угодно, поэтому их могут использовать для влияния на выборы и подрыва демократии. Даже если эта система не будет использоваться для дезинформации намеренно, она все равно проявляется. Причём настолько стройная и грамматически правильная, что даже профессиональные редакторы порой попадаются на крючок. И это реально серьезная проблема.
Вся причина в том, что несовершенны механизмы обработки информации, не всегда ИИ может адекватно обрабатывать информацию. Неизученность языковых моделей, некачественный контент этому способствуют. В результате робот создает тексты, которые выглядят правдоподобно, но не являются достоверными.
Ещё одним фактором, который вызывает опасения, выступает способность ИИ быстро обрабатывать информацию. Например, он способен разработать и создавать химическое оружие.
В последние недели проявились новые возможности. Например, одна система ИИ теперь может управлять другой.
Или же есть эксперименты, когда ИИ просит человека выполнить определенные действия, обманывает его. Просит включить запись или что-то ввести. Это само по себе уже очень очень плохо. Потому что существует вероятность того, что такая система попадет в руки мошенникам и начнется новая волна мошенничества."
Как с этим бороться?
Гэри предлагает срочно менять подход к управлению ИИ. На данный момент нет глобального управления, нет организации, которая контролировала бы работу новой технологии.
В другие периоды истории, когда мы сталкивались с неопределенностью, мощными новыми явлениями, которые могли принести как вред, так и благо, создавали новые организации.
Например, когда появилось ядерная энергетика.
Международное агентство по атомной энергии (сокр. МАГАТЭ, англ. International Atomic Energy Agency, сокр. IAEA) — международная организация создана в соответствии с решением ООН от 4 декабря 1954 года, входит в систему ООН, осуществляет полномочия развития сотрудничества в сфере мирного использования атомной энергии.
Нам нужно объединиться, создать всемирную организацию, что-то вроде международного агентства по искуственному интеллекту. Оно должно быть некоммерческим и политически нейтральным. Нужно собрать много людей за столом переговоров, много заинтересованныз сторон со всего мира.
В этой организации решались бы вопросы контроля и исследования.
Что касается управления ИИ, то здесь Гэри подчеркивает недостаточность исследований тех же языковых моделей, а также фундаментальных инструментов для измерения масштабов проблемы.
Например, мы знаем, что дехинформация - это проблема, но при этом никто не может подсчитать её объем. Это никак на сегодняшний день не контролируется. Фиксируются отдельные случаи дезинформации.
Далее исследователь подводит итоги выступления, ещё раз говорит о необходимости контроля ИИ и о том, что согласно опросам более 90 процентов людей согласны с тем, что ИИ необходимо контролировать.
От себя: присоединяюсь, так как рынок информации сам по себе являет нечто нелегальное. В том числе и информация, созданная человеком. Информационные войны, обман, недостоверная информация переполняют сеть.
И только критическое мышление, проверка всех представленных фактов рулят.
То же касается и ИИ. Нужны новые инструменты, нужны люди со всего мира, которые будут этим заниматься, нужны технологии, которые смогут контролировать мощь ИИ. Иначе мы все попадём в ловушку лжи. Мы склонны в нее попадать.