IMG-LOGO
image

22 сент. 2023

Просмотров: 75

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Машинный интеллект всё плотнее входит в нашу жизнь — от чат-ботов до беспилотников. Но кто и как должен устанавливать для него правила? Давайте разберёмся, что будет, если мы опоздаем с созданием этих правил и какие риски уже маячат на горизонте.
Разработчики сами начинают бить тревогу. Например, создатели ChatGPT летом запустили целое подразделение, задача которого — придумать, как удержать под контролем гипотетический сверхразум, если он однажды появится.

Ещё недавно разговоры об интеллектуальных машинах были уделом футурологов и писателей-фантастов. Они рисовали образы разумных существ с собственной волей и моралью. Реальность, как часто бывает, оказалась иной. Мы пока не создали разумного существа из металла и кремния. Зато создали нечто другое — мощные инструменты, которые умеют обрабатывать гигантские данные, предсказывать поведение, писать тексты и рисовать картины.

Проблема в скорости. Общество ещё не успело осознать все возможные последствия, но технологии уже вырвались в массы. ChatGPT и его аналоги за несколько месяцев стали доступны миллионам. Мы внедрили их в быт, не успев толком задаться простым вопросом: насколько это безопасно?

Попробуем разобраться в этом с помощью экспертов: футуролога Данилы Медведева и адвоката Ильдара Мухаметзянова.

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Кто догонит машинную гонку?

Самое пугающее в машинном интеллекте — скорость его развития. Он учится быстрее любого человека. Об этом ещё весной открыто писали более тысячи экспертов, включая известных техногигантов. Их призыв был прост: давайте притормозим гонку хотя бы на полгода, чтобы осмыслить риски и выработать правила безопасности. Прямого моратория не случилось, но зерно сомнения было посеяно. Компании стали задумываться о последствиях своих изобретений. Медленно, но задумались.

А контроль-то останется за нами?

Взгляд футуролога

Именно поэтому ближайшее будущее — за гибридным интеллектом. Союз человека и машины. Самый наглядный пример — тот же чат. Мы задаём вопрос, система выдаёт ответ, а мы его корректируем, уточняем, направляем. Последнее слово пока остаётся за человеком. Значит, иллюзия контроля пока сохраняется. Но надолго ли?

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Взгляд юриста

Право тоже пока держит ситуацию в узде. Возьмём беспилотные автомобили. Согласно международной конвенции, у каждого транспортного средства должен быть водитель. Государств, которые легализовали полностью автономные машины, — единицы. Законодатели в принципе не привыкли работать на опережение. Знаки ставят после аварии, законы ужесточают после скандалов. Правовая система реагирует, а не предвидит. Поэтому серьёзные ограничения появятся, скорее всего, только в ответ на громкие происшествия. Удобная позиция, не правда ли?

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

А если ошибётся человек?

В гибридной схеме финальное решение часто за человеком. Но люди ошибаются. Вспомните аварии с беспилотниками в США — часто водители просто игнорировали предупреждения системы. Пока таких случаев немного. Но что будет, когда машинный интеллект внедрят повсеместно в энергетику, медицину или госуправление?

Взгляд футуролога

Примеры уже есть. Конгресс США купил лицензии ChatGPT для подготовки черновиков законов. А теперь представьте, что будет, если ответственный чиновник, как нерадивый студент, просто скопирует сгенерированный текст, не проверив его. Последствия могут касаться прав миллионов.

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Взгляд юриста

Машина пока лишь отражает человеческий опыт. Доверять ей рутину — не преступление. Депутаты, надеюсь, не станут слепо копировать тексты, как это делают некоторые студенты. Любое решение можно перепроверить. Но, возможно, стоит всё же определить «красные линии» — сферы, куда доступ машинному интеллекту должен быть временно закрыт. Пока не придумали надёжных способов защититься от нашей же невнимательности.

Оружие для спамеров и мошенников

А вот здесь риски уже вполне осязаемы. Раньше создавать тонны спама и фейков было трудоёмко. Теперь это делается за секунды. Исследователи уже находят целые «фермы» сайков, которые ежедневно публикуют сотни текстов, созданных нейросетями. Качество обмана выросло: боты пишут убедительно, почти как люди.

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Взгляд футуролога

Дело не только в масштабах, но и в качестве дезинформации. Такой контент можно использовать не только для финансового мошенничества, но и для влияния на политику, для разжигания конфликтов. Люди по-прежнему верят напечатанному слову, особенно если оно хорошо составлено. Опасный инструмент попал в опасные руки.

Взгляд юриста

Даже без злого умысла машина может нагенерировать откровенную ложь. Помните историю нью-йоркского адвоката, который подал в суд документы, целиком придуманные чат-ботом? Ему грозил крах карьеры, отделался штрафом. Правовая система пока справляется старыми методами: есть понятие вреда — будет и ответственность. Но хватит ли этого, когда масштабы явления вырастут в тысячи раз?

Массовое внедрение ИИ: какие реальные риски видят эксперты для общества?

Пробелов в регулировании, конечно, много. Но самая большая сложность, пожалуй, в нашем отношении. Часть создателей этих технологий руководствуется не трезвой оценкой рисков, а громкими лозунгами и амбициями. И вот это сочетание — мощный инструмент плюс легкомысленное отношение к последствиям — может стать самой серьёзной угрозой. Мы создаём не просто инструменты. Мы создаём силы, которые уже меняют правила игры. Успеем ли мы адаптироваться?