Fouras писал(а):Источник цитаты Я тут придумал нейросеть с обратным распространением обучения.
а что это за зверь?
обратное распространение обучения
Fouras писал(а):Источник цитаты Я тут придумал нейросеть с обратным распространением обучения.
Fouras писал(а):Источник цитаты Можно уточнить чего боятся конкретно? Несколько примеров.
И разберем каждый конкретный пример. Разобьем даже на две опасности:
1. Каким образом ИИ управляемый человеком, может нанести вред эффективнее, чем просто человек без ИИ. В данном конкретном примере, без мусоленья общих фраз про глобальную опасность.
2. Каким образом в данном примере ИИ может принести опасность большую, чем люди без ИИ, причем без участия человека.
В Законе об ИИ, который центральные европейские органы разрабатывали два года - и недавно внесли новые правки в связи с появлением феномена ChatGPT-4 - системы искусственного интеллекта разделены на четыре группы: группа "неприемлемого риска", группа "высокого риска", "генерирующие" системы и группа "ограниченного риска".
В группу "неприемлемого риска" зачислены:
системы, созданные для воздействия на подсознание людей
системы социального рейтинга, разделяющего людей на категории по их поведению, социально-экономическому положению и прочим личным характеристикам
системы распознавания в режиме реального времени
Все они будут в Европе запрещены, исключение сделано для использования систем распознавания правоохранительными органами постфактум и с разрешения суда.
Владельцы систем, генерирующих контент, таких как ChatGPT, должны будут
помечать созданный ими контент
программировать их так, чтобы они не создавали противозаконный контент
обнародовать списки данных, которые защищены авторским правом и на которых обучалась система
Сключики писал(а):Источник цитаты И шо, три беленьких кружочка должно там быть?)
Так, в одной детской задаче перед испытуемым была чашка с шариками, и вторая пустая чашка, до которой не дотянуться. Предлагалось, используя различные предметы, такие как длинная труба, картон и ножницы, переместить шарики из ближней чашки в дальнюю — нейросеть, по словам авторов, генерировала абсурдные ответы.
Студентам МГПУ разрешили использовать нейросети при написания дипломов
Московский городской педагогический университет (МГПУ) разрешил студентам использовать технологии искусственного интеллекта при написании выпускных квалификационных работ (ВКР). Об этом сообщила пресс-служба ВУЗа.
«Запретить пользоваться — самый простой способ, но вряд ли действенный. Если в будущем нашим выпускникам все равно не избежать использования этого инструмента, лучше научиться грамотно его использовать уже, обучаясь в вузе»,— сказал ректор МГПУ Игорь Реморенко, его слова приводятся в пресс-релизе.
Господин Реморенко добавил, что прямое списывание остается недопустимым и студентам «необходимо критически относиться к переносу информацию из автоматизированных систем в ВКР».
В феврале широкий общественный резонанс вызвала история студента РГГУ, который защитил ВКР, написанную с помощью искусственного интеллекта. Университет тогда призвал ограничить доступ к чат-боту и пообещал проверить работу выпускника повторно, а в Минобразования предложили вузам подумать об изменении подхода к проверке знаний студентов.
Сейчас этот форум просматривают: нет зарегистрированных пользователей и 1 гость