Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?
Ещё недавно разговоры об интеллектуальных машинах были уделом футурологов и писателей-фантастов. Они рисовали образы разумных существ с собственной волей и моралью. Реальность, как часто бывает, оказалась иной. Мы пока не создали разумного существа из металла и кремния. Зато создали нечто другое — мощные инструменты, которые умеют обрабатывать гигантские данные, предсказывать поведение, писать тексты и рисовать картины.
Проблема в скорости. Общество ещё не успело осознать все возможные последствия, но технологии уже вырвались в массы. ChatGPT и его аналоги за несколько месяцев стали доступны миллионам. Мы внедрили их в быт, не успев толком задаться простым вопросом: насколько это безопасно?
Попробуем разобраться в этом с помощью экспертов: футуролога Данилы Медведева и адвоката Ильдара Мухаметзянова.
Кто догонит машинную гонку?
Самое пугающее в машинном интеллекте — скорость его развития. Он учится быстрее любого человека. Об этом ещё весной открыто писали более тысячи экспертов, включая известных техногигантов. Их призыв был прост: давайте притормозим гонку хотя бы на полгода, чтобы осмыслить риски и выработать правила безопасности. Прямого моратория не случилось, но зерно сомнения было посеяно. Компании стали задумываться о последствиях своих изобретений. Медленно, но задумались.
А контроль-то останется за нами?
Взгляд футуролога
Именно поэтому ближайшее будущее — за гибридным интеллектом. Союз человека и машины. Самый наглядный пример — тот же чат. Мы задаём вопрос, система выдаёт ответ, а мы его корректируем, уточняем, направляем. Последнее слово пока остаётся за человеком. Значит, иллюзия контроля пока сохраняется. Но надолго ли?
Взгляд юриста
Право тоже пока держит ситуацию в узде. Возьмём беспилотные автомобили. Согласно международной конвенции, у каждого транспортного средства должен быть водитель. Государств, которые легализовали полностью автономные машины, — единицы. Законодатели в принципе не привыкли работать на опережение. Знаки ставят после аварии, законы ужесточают после скандалов. Правовая система реагирует, а не предвидит. Поэтому серьёзные ограничения появятся, скорее всего, только в ответ на громкие происшествия. Удобная позиция, не правда ли?
А если ошибётся человек?
В гибридной схеме финальное решение часто за человеком. Но люди ошибаются. Вспомните аварии с беспилотниками в США — часто водители просто игнорировали предупреждения системы. Пока таких случаев немного. Но что будет, когда машинный интеллект внедрят повсеместно в энергетику, медицину или госуправление?
Взгляд футуролога
Примеры уже есть. Конгресс США купил лицензии ChatGPT для подготовки черновиков законов. А теперь представьте, что будет, если ответственный чиновник, как нерадивый студент, просто скопирует сгенерированный текст, не проверив его. Последствия могут касаться прав миллионов.
Взгляд юриста
Машина пока лишь отражает человеческий опыт. Доверять ей рутину — не преступление. Депутаты, надеюсь, не станут слепо копировать тексты, как это делают некоторые студенты. Любое решение можно перепроверить. Но, возможно, стоит всё же определить «красные линии» — сферы, куда доступ машинному интеллекту должен быть временно закрыт. Пока не придумали надёжных способов защититься от нашей же невнимательности.
Оружие для спамеров и мошенников
А вот здесь риски уже вполне осязаемы. Раньше создавать тонны спама и фейков было трудоёмко. Теперь это делается за секунды. Исследователи уже находят целые «фермы» сайков, которые ежедневно публикуют сотни текстов, созданных нейросетями. Качество обмана выросло: боты пишут убедительно, почти как люди.
Взгляд футуролога
Дело не только в масштабах, но и в качестве дезинформации. Такой контент можно использовать не только для финансового мошенничества, но и для влияния на политику, для разжигания конфликтов. Люди по-прежнему верят напечатанному слову, особенно если оно хорошо составлено. Опасный инструмент попал в опасные руки.
Взгляд юриста
Даже без злого умысла машина может нагенерировать откровенную ложь. Помните историю нью-йоркского адвоката, который подал в суд документы, целиком придуманные чат-ботом? Ему грозил крах карьеры, отделался штрафом. Правовая система пока справляется старыми методами: есть понятие вреда — будет и ответственность. Но хватит ли этого, когда масштабы явления вырастут в тысячи раз?
Пробелов в регулировании, конечно, много. Но самая большая сложность, пожалуй, в нашем отношении. Часть создателей этих технологий руководствуется не трезвой оценкой рисков, а громкими лозунгами и амбициями. И вот это сочетание — мощный инструмент плюс легкомысленное отношение к последствиям — может стать самой серьёзной угрозой. Мы создаём не просто инструменты. Мы создаём силы, которые уже меняют правила игры. Успеем ли мы адаптироваться?