Разоблачение страхов ChatGPT
Возможно, ни одна другая технология не является столь
интригующей и тревожащей, как генеративный искусственный
интеллект. Эмоции достигли апогея, когда 100 миллионов активных
пользователей в месяц ухватились за бесплатную предварительную
версию ChatGPT в течение двух месяцев после ее запуска. Вы можете
поблагодарить писателей-фантастов и свое собственное воображение
как за дразнящие, так и за пугающие образы, которые ChatGPT
теперь активирует в вашей голове.
Но это не значит, что нет законных оснований для настороженности и
беспокойства. Против программ генеративного ИИ были возбуждены
судебные иски за нарушение авторских прав и других нарушений
интеллектуальной собственности. OpenAI и другие компании и
партнеры, занимающиеся искусственным интеллектом, обвиняются в
незаконном использовании защищенных авторским правом
фотографий, текста и другой интеллектуальной собственности без
разрешения или оплаты для обучения своих моделей искусственного
интеллекта. Эти обвинения обычно возникают из-за того, что контент,
защищенный авторским правом, попадает в сеть Интернет для создания
массивов обучающих данных.
В целом группы адвокатов спорят о неизбежности и несостоятельности
таких обвинений в эпоху ИИ и просят снять обвинения. Судебные
процессы относительно того, кому принадлежит контент, созданный
ChatGPT и ему подобными, ожидаются где-то в будущем. Однако Бюро
регистрации авторских прав США уже постановило, что контент,
созданный ИИ, будь то тексты, изображения или музыка, не защищен
законом об авторском праве. В США, по крайней мере на данный
момент, правительство не будет защищать с точки зрения прав,
лицензирования или оплаты что-либо, созданное ИИ.
Между тем существуют реальные опасения по поводу других видов
потенциальных обязательств. Известно, что ChatGPT и подобные ему
иногда предоставляют неверную информацию пользователям и другим
машинам. Кто несет ответственность, когда что-то идет не так, особенно
в случае угрозы здоровью и жизни? Даже если на карту поставлена
прибыль бизнеса, а не чья-то жизнь, риски могут быть высокими, а
результат может быть катастрофическим. Неизбежно, кто-то пострадает,
и, вероятно, какое-то лицо или организация в конечном итоге будут
привлечены к ответственности за это.
Кроме того, есть усугубление прежних проблем, таких как
конфиденциальность данных, предвзятость, несправедливое
отношение к отдельным лицам и группам лиц из-за действий ИИ,
кража личных данных, неотличимые фейки, проблемы безопасности и
апатия к реальности, когда общественность больше не может сказать,
что правда, а что нет, и думает, что усилия, чтобы разобраться во всем
этом, слишком велики для продолжения процесса.
Короче говоря, ChatGPT ускоряет и усиливает потребность в правилах и
стандартах, которые в настоящее время изучаются, соблюдаются и
разрабатываются организациями и правительствами, стремящимися
установить барьеры, направленные на обеспечение ответственности ИИ.
Большой вопрос заключается в том, добьются ли они успеха со временем,
учитывая невероятно быстрое распространение ChatGPT по всему миру.
Примеры групп, работающих над руководящими принципами, этикой,
стандартами и ответственными структурами ИИ, включают
следующие:
Подкомитет технологического комитета США по
искусственному интеллекту и алгоритмам ACM
Всемирный Экономический Форум
Британский центр этики данных
Государственные учреждения и инициативы, такие как AI
Bill of Rights в США и Закон Европейского совета Artificial
Intelligence Act.
IEEE и его стандарты серии 7000
Учебные заведения, такие как Stern School of Business при
Нью-Йоркском университете
Частный сектор, в котором компании разрабатывают свою
собственную ответственную политику и основы в области ИИ.
Что касается общественного мнения, то здесь, по-видимому, действуют
два направления мысли. Во-первых, это поддержка полной
демократизации ChatGPT, что, по сути, и происходит сейчас, потому
что OpenAI позволяет пользователям участвовать в обучении модели,
используя ее по своему усмотрению. Второй — это призыв к