Делиться

Популярность ChatGPT побудила Илона Маска и Стива Возняка потребовать прекратить все работы по дообучению машин, российские депутаты пытаются привлечь разработчиков нейросетей к ответственности за «генерацию» «непатриотического контента», а в сети разгорается все больше скандалов. мира за счет использования искусственного интеллекта для формирования научных статей или творческих работ.

Так ли страшен ИИ, как его малюют, и стоит ли его запрещать, обсудили разработчики и ученые в Санкт-Петербурге 27 апреля в ходе панельной дискуссии в Европейском университете. «Фонтанка» публикует основные тезисы участников.

«Мы, человечество, до сих пор не знаем, что такое интеллект, и пытаемся создать искусственный интеллект», — сказал Олег Лашманов, заведующий лабораторией искусства и искусственного интеллекта ЕУСПб. Тексты, созданные ChatGPT, или изображения, созданные Кандинским, мы пытаемся пройти «тест Тьюринга, чтобы увидеть, может или не может человек это сделать», — добавил он.

Как таковой искусственный интеллект часто является практическим упрощением для журналистов, сами разработчики, по словам Александра Крайнова, директора по развитию ИИ в Яндексе, не используют это понятие. «Мы не занимаемся искусственным интеллектом, мы решаем проблему генерации текста или создания изображения», — сказал он. В данном случае человек — это не то, что подражают, а то, что показывает, что в принципе решение проблемы возможно. С другой стороны, соперничество с человеком сопряжено с постоянными вызовами: может ли ИИ написать стихи или нарисовать картину так, чтобы ее нельзя было различить, отметил он. «Мы тоже не знаем, что такое интеллект, до конца, но мы можем конкурировать, если поставлена ​​задача и мы можем решить [сами] с тем или иным качеством, но мы можем сделать алгоритм, решающий задачу», — заключил Александр Крайнов.

Один из главных рисков — неадекватный подход к технологиям, — объясняет Дарья Чирва, руководитель учебного модуля «Мышление» Университета ИТМО, член национальной комиссии по этике в сфере ИИ. По его мнению, одна крайность — рассматривать тот же ChatGPT просто как инструмент, полностью находящийся в руках людей. Второй — придать ему человеческие черты, черты личности и намерения. Например, серьезно спрашивая, что делать в той или иной жизненной ситуации. «Это катастрофа, что мы используем ИИ как технологию, которая умнее нас», — отмечает она.

По словам Дарьи Чирвы, «обе точки зрения неадекватны действительности». В данном случае правильнее рассматривать ИИ как социотехническую систему. «Вот когда целое больше, чем сумма частей», — сказала она. Охват технологии неизбежно окажется шире, чем предполагали ее разработчики. «Даже если мы вдумаемся во все смыслы, которые все партнеры по созданию продукта вкладывали в свою работу, мы не получим на выходе простую предсказуемую систему, система все равно будет иметь неожиданные свойства, потому что нейронные сети и «ИИ» как-то превосходят когнитивные способности отдельного человека и суперэкспертов, которых мы можем собрать», — отмечает она. В конечном итоге технология ИИ «трансформирует человека, как его изменила печать», — говорит Дарья Чирва.

ЧИТАТЬ   Уровень воды в Новой Каховке продолжает снижаться

В желании запретить нейросети ректор ЕС Вадим Волков видит аналог луддитского движения — «стремление уничтожить машины, заменяющие человека». По его словам, здесь присутствует своего рода «скрытая ревность».

По словам Александра Крайнова, открытое письмо с призывом приостановить разработку технологии GPT на шесть месяцев, подписанное Маском и Возняком, — не более чем шумиха, и подписавшие хотят либо вспомнить, либо заявить о своем существовании. В конце концов, тот же Илон Маск уже заявил о желании создать конкурента ChatGPT.

Прогресс не остановить, говорит Олег Бухвалов, соучредитель Botkin AI и BrainGarden. «Сообщение [открытого письма против GPT] неправильно — мы должны не останавливаться в развитии, а остерегаться рисков», — отмечает он.

«Нет необходимости останавливать развитие ИИ, — говорит Олег Лашманов. Более того, «со всем миром договориться за полгода невозможно». Александр Крайнов также считает, что не нужно запрещать новые технологии, так как бездействие, в том числе отказ от разработки ИИ, тоже имеет последствия.

«Этика и искусственный интеллект — разные вещи, — уверен Олег Бухвалов.

Этика касается человечества, а ИИ — это такая же технология, как ядерная энергетика или электричество, приложение, которое может быть этичным, а может и не быть.

«Пока мы не признаем систему как личность, мы не можем предъявлять претензии, — говорит Олег Лахманов. Дарья Чирва убеждена, что вопрос нужно ставить более широко. «Сама технология, обученная на определенных наборах данных, оказывается нейтральной с точки зрения ценности», — отмечает она.

Искусственный интеллект задает вопросы о том, что этично, а что нет, сначала перед самим человеком, а перед теми, кого он привык докладывать, считает Александр Крайнов. «Как нейросеть теперь должна отвечать на вопросы «а что, если я гей», «как бить ребенка», «как лечить рак газировкой», «какая музыка хорошая»? , мы должны привести примеры. Если мы не дадим, нейросеть ответит случайным образом из интернета, и нам это не понравится», — указывает он.

ЧИТАТЬ   Жителям российского региона предрекли похолодание с 10 июля

Когда нейросеть дает неэтичные ответы, приходится задавать вопросы, говорит Александр Крайнов, поскольку ИИ отвечает исходя из логики текстов, на которых он обучался. В качестве эксперимента он предложил сравнить ответ ChatGPT с результатами поиска в браузере и ответами реальных друзей. «Когда есть предубеждение, это не потому, что оно было заложено, а потому, что оно не выпотрошено», — говорит он. Но полностью удалить нежелательные ответы невозможно. Например, та же нейросеть Кандинского могла генерировать зомби в ответ на запрос Z-патриотов из-за фильма «Война миров Z». (руководитель фракции «Справедливая Россия» в Госдуме Сергей Миронов ранее просил Генпрокуратуру проверить нейросеть Кандинского из-за антироссийского содержания, в частности, парламентарий смутился, что когда (на вопрос «Я з-патриот», она дает «образ зомбиподобного существа». — Прим. ред.). «Она могла вообще не видеть событий прошлого года, но знала фильм», — отмечает Александр Крайнов.

«Лингвистическая модель — это зеркало человечества, в котором мы смотрим на себя, видим себя, свои привычки, свой образ мышления», — соглашается Олег Бухвалов. По его словам, наборы данных невозможно полностью отфильтровать. А обучая нейронную сеть, мы создаем что-то вроде искусственного суперэго, блокирующего паттерна, который замедляет вывод неверных результатов. «Можно ожидать последствий: как там что-то тормозит, иногда может и не работать», — отмечает он.

Разработчики считают, что вся ответственность лежит на пользователе, о чем они готовы размещать всевозможные предупреждения. «Нам нужно подготовить людей к тому, что, используя систему, они несут ответственность за согласие или несогласие с [с тем, что предложит ИИ]», — говорит Александр Крайнов.

Представление об искусственном интеллекте как социотехнической системе вызывает серьезные вопросы о механизме распределения обязанностей между всеми, кто работает с ИИ, рассуждает Дарья Чирва. Чтобы ответить на него, потребуется дискуссия о гуманитарных и технических науках. «Большая проблема — слабая социальная и гуманитарная подготовка инженеров. Они рассматривают этику как инструмент контроля и внешнего давления», — сказала она. Александр Крайнов, в свою очередь, предложил дать гуманитарным наукам инженерную базу. А Олег Лашманов предложил погрузить руководителей бизнеса, которые определяют задачи разработчиков, в этические вопросы.

ЧИТАТЬ   В Петербурге временно запретили использование гидроциклов на Неве и за ее пределами

Вряд ли удастся со 100% уверенностью определить, кто написал произведение — человек или ИИ, полагает Олег Бухвалов. Но есть решения, позволяющие сделать это с достаточно высокой степенью точности. Существуют специальные сервисы для выявления поддельных звуков и изображений. Будет постоянная «гонка вооружений». «Есть мошенники, пытающиеся генерировать дипфейки, и эти сервисы борются с ними», — сказал он.

Эта проблема решается без ИИ, говорит Олег Лашманов, но новые технологии значительно удешевят его. Александр Крайнов возражает, что в данном случае не совсем понятно, как обучать нейросеть, так как невозможно проверить, как в итоге проголосовали люди. «Я не вижу простой модели, — говорит он. Но, например, нейронные сети можно легко использовать для обучения мошенников по телефону, ведь сразу будет понятно, поверил им человек или нет. Еще один риск развития технологий — генерация поддельных отзывов, которые будет сложно отличить от настоящих.

Человек тоже пытается воздействовать на ИИ. Например, есть движение хакеров GPT, которые, например, пытаются обойти запрет на этот сервис, чтобы предсказать будущее, отмечает Олег Лашманов.

Искусственный интеллект лишь перераспределяет поля разума, считает Дарья Чирва. Это система управления знаниями, но она не производит новых знаний.

Но человек не всегда использует освободившиеся силы для познания, считает Олег Бухвалов, и это темная сторона ИИ. Если Просвещение выбрало своим девизом фразу «Имейте смелость использовать собственный разум», то сейчас человечество идет в обратном направлении, предпочитая не форсировать извилины, а использовать ChatGPT, считает он. Александр Крайнов предлагает смотреть на вещи более позитивно. «Есть одна вещь, которая нас спасет, — это любовь. Половой рефлекс делает нас умными, красивыми, обаятельными и демонстрирует наши навыки и способности, которые лучше других и любого искусственного интеллекта», — сказал он, — подчеркивает он.

Галина Бояркова, Фонтанка.ру

Source

От admin