Добровольцы, поддерживающие цифровую энциклопедию, расходятся во мнениях относительно того, как бороться с ростом количества контента и дезинформации, создаваемых искусственным интеллектом.

Поскольку генеративный искусственный интеллект продолжает проникать во все аспекты культуры, люди, управляющие Википедией, расходятся во мнении, как лучше поступить.

Во время недавнего звонки В сообществе было заметно расхождение в том, следует ли использовать большие языковые модели для создания контента. В то время как некоторые выразили мнение, что такие инструменты, как ChatGPT от OpenAI, могут помочь в создании и обобщении статей, другие относятся к этому с осторожностью.

Беспокойство заключается в том, что машинно-генерируемый контент должен быть уравновешен большим количеством человеческих обзоров, иначе это приведет к тому, что малоизвестные вики будут наводнены плохим контентом. Хотя генераторы ИИ полезны для написания правдоподобного, похожего на человеческий текст, они также
наклонный включать в текст ошибочную информацию и даже ссылаться на несуществующие источники и научные работы. Это часто приводит к тому, что тексты кажутся точными, но при ближайшем рассмотрении оказываются полностью сфабрикованными.

Эми Брукман — регент-профессор и старший доцент Школы интерактивных вычислений Технологического института Джорджии, а также автор книги «Можно ли доверять Википедии?». Интернет-сообщества и создание знаний. Она говорит, что, как и люди, большие языковые модели хороши только в том случае, если они могут отличить факты от вымысла.

«Наш единственный выход — использовать [большие языковые модели]но отредактируйте их и попросите кого-нибудь проверить исходники», — сказал Брукман.

Исследователям не потребовалось много времени, чтобы понять, что ChatGPT от OpenAI — это ужасный вымышленный рассказчик, который смущает студентов, которые полагаются исключительно на чат-бота при написании своих эссе. Иногда предлагает статьи и их авторов. В других случаях он подменяет имена менее известных ученых более известными, но делает это с предельной уверенностью. OpenAI даже заявила, что модель была «умопомрачительной», когда в ней были собраны факты — термин, который подвергся критике со стороны некоторых экспертов по искусственному интеллекту как способ для компаний, занимающихся искусственным интеллектом, избежать ответственности за распространение фактов и ложной информации с помощью их инструментов.

ЧИТАТЬ   С другим мышлением: как хакеры используют искусственный интеллект для киберпреступности

«Риск для Википедии заключается в том, что люди могут снизить качество статей, добавив непроверенную информацию», — добавил Брукман. «Я не думаю, что есть что-то плохое в том, чтобы использовать вашу работу в качестве первого черновика, но нужно проверить каждый пункт».

Фонд Викимедиа, некоммерческая организация, стоящая за сайтом, планирует создать инструменты, облегчающие волонтерам идентификацию контента, созданного ботами. Тем временем Википедия работает над проектом политики, которая накладывает ограничения на добровольцев, использующих большие языковые модели для создания контента.

В текущем проекте политики отмечается, что любой, кто не знаком с рисками больших языковых моделей, должен избегать их использования для создания контента Википедии, поскольку это может вызвать поток исков о диффамации и нарушении авторских прав в Фонд Викимедиа, от которого защищена некоммерческая организация. , в отличие от волонтеров Википедии. Эти большие языковые шаблоны также подвержены скрытым предубеждениям, которые часто приводят к предвзятому содержанию в пользу маргинализированных и недостаточно представленных групп людей.

В сообществе также существуют разногласия по поводу того, следует ли разрешить крупным языковым моделям учиться на Википедии. Хотя открытый доступ является краеугольным камнем принципов дизайна Википедии, некоторые опасаются, что неограниченный поиск данных в Интернете позволит компаниям, занимающимся искусственным интеллектом, таким как OpenAI, использовать открытый Интернет для создания коммерческих наборов данных, закрытых для своих моделей. Это особенно проблематично, если контент Википедии сам генерируется искусственным интеллектом, создавая петлю обратной связи с потенциально предвзятой информацией, если ее не проверить.

Предложение, опубликованное в списке рассылки Википедии, привлекло внимание к идее использования BLOOM, большой языковой модели, выпущенной в прошлом году под новой лицензией. Лицензия ответственного ИИ (RAIL), которая «сочетает подход к лицензированию с открытым исходным кодом с поведенческими ограничениями, направленными на реализацию концепции ответственного использования ИИ». Как и некоторые версии лицензии Creative Commons, лицензия RAIL допускает гибкость в использовании модели ИИ, но накладывает определенные ограничения — например, требуя, чтобы любая производная модель четко указывала, что ее результаты получены из ИИ, и что все созданные из них, следовали тем же правилам.

ЧИТАТЬ   Власти Тюмени привлекают волонтеров для тушения пожаров и ночных патрулей

Мариана Фоссатти, координатор глобальной кампании за доступ к знаниям в Интернете «Кто знает?», независимо от географического положения и языка, говорит, что великие лингвистические модели и Википедия находятся в петле обратной связи, которая вносит в тексты еще большую необъективность.

«У нас огромный объем знаний более чем на 300 языках», — сказал Фоссатти. «Но, конечно, эти 300 разных языков тоже очень неравны. Английская Википедия намного богаче по содержанию, чем остальные, и мы обеспечиваем системы искусственного интеллекта таким объемом знаний.

ИИ не новинка для википедистов — на сайте уже давно используются автоматизированные системы для выполнения таких задач, как машинный перевод и устранение вандализма. Но есть давние волонтеры, которые менее открыты для идеи расширения использования ИИ на платформе.

В заявлении Фонда Викимедиа некоммерческая организация заявила, что ИИ дает возможность помочь волонтерам в развитии проектов Википедии и Викимедиа.

«Основываясь на отзывах добровольцев, мы изучаем, как эти модели могут помочь заполнить пробелы в знаниях и расширить доступ к знаниям и расширить участие», — написал представитель Фонда Викимедиа в сообщении Motherboard. «Однако человеческое участие остается наиболее важным компонентом экосистемы знаний Викимедиа. ИИ лучше всего работает в качестве дополнения к работе, которую люди выполняют в нашем проекте».

На данный момент проект политики включает пункт, прямо указывающий, что для контента, созданного ИИ, требуется отцовство в тексте. Брукман не считает, что некоторые проблемы, возникающие при использовании больших языковых моделей, сильно отличаются от преднамеренных злонамеренных попыток редактирования страниц Википедии.

«Я не думаю, что это сильно отличается от борьбы с вандализмом», — добавил Брукман. У нас есть стратегии борьбы с этим. Я думаю, что непроверенный контент, созданный ИИ, является формой вандализма, и мы можем использовать те же методы, которые мы используем для борьбы с вандализмом в Википедии, для борьбы с мусором, созданным ИИ».

ЧИТАТЬ   «Не в чем винить нейронную сеть». Десять проблем, которые дал нам искусственный интеллект

В недавнем электронном письме, отправленном в список рассылки Wikimedia Foundation, Селена Декельманн, директор организации по продуктам и технологиям, отметила, что между волонтерами и персоналом фонда возникают сложные проблемы, связанные с незавершенными техническими миграциями, которые влияют на принятие решений в волонтерском сообществе.

«Нам нужно иметь возможность выбирать области обслуживания и технической миграции, чтобы расставлять приоритеты, а затем не работать над другими проектами, чтобы завершить некоторые из этих крупных проектов», — сказал Декельманн в электронном письме, полученном Motherboard.

Но до тех пор, по словам Брукман, издателям и волонтерам важно сохранять бдительность.

«Доверие к контенту зависит только от того, сколько людей проверили его с помощью надежных методов цитирования», — сказал Брукман. — Да, Генеративный ИИ не имеет сильных предпочтений по цитированию, поэтому нам нужно проверить его работу. Я не думаю, что мы можем сказать людям «не используйте это», потому что они просто не хотят слушать. В смысле, я бы посадил джина обратно в бутылку, если бы вы мне позволили. Но поскольку это невозможно, все, что мы можем сделать, — это проверить».

Source

От admin