Во вторник на этой неделе нейробиолог, основатель и писатель Гэри Маркус сел между генеральным директором OpenAI Сэмом Альтманом и Кристиной Монтгомери, директором IBM по вопросам конфиденциальности, поскольку все трое свидетельствовали перед Юридическим комитетом Сената более трех часов. Сенаторы в основном сосредоточились на Альтмане, потому что в настоящее время он руководит одной из самых влиятельных компаний на планете, и потому что Альтман неоднократно просил их помочь регулировать его работу. (Большинство руководителей умоляют Конгресс оставить их отрасль в покое.)

Хотя Маркус уже некоторое время известен в академических кругах, в последнее время его звезда набирает обороты благодаря его информационному бюллетеню («Путь к ИИ, которому мы можем доверять“), подкаст (“Люди против машин“) и его относительное беспокойство по поводу неконтролируемого роста ИИ. В дополнение к рейтингам на этой неделе, например, он появился в этом месяце на Bloomberg TV и был показан в The New York Times. воскресный журнал И Проводной среди прочих мест.

Поскольку слушания на этой неделе казались поистине историческими во многих отношениях — сенатор Джош Хоули назвал ИИ «одним из самых технологических нововведений в истории человечества», а сенатор Джон Кеннеди был настолько очарован Альтманом, что попросил Альтмана выбрать своих собственных регуляторов — мы также хотел поговорить с Маркусом, чтобы обсудить опыт и узнать, что он знает о том, что произойдет дальше.

Вы все еще в Вашингтоне?

Я все еще в Вашингтоне. Я встречаюсь с законодателями и их сотрудниками, а также с другими интересными людьми и пытаюсь понять, сможем ли мы воплотить в реальность то, о чем я говорил.

Вы преподавали в Нью-Йоркском университете. Вы стали соучредителем нескольких компаний, занимающихся искусственным интеллектом, в том числе А со знаменитым робототехником Родни Бруксом. Я брал интервью у Брукса на сцене в 2017 году, и он сказал, что не думает, что Илон Маск действительно понимает ИИ, и считает, что Маск ошибался, говоря, что ИИ представляет собой экзистенциальную угрозу.

Я думаю, что мы с Родом разделяем скептицизм относительно того, является ли современный ИИ чем-то вроде общего искусственного интеллекта. Есть несколько проблем, которые вам нужно решить. Во-первых, насколько мы близки к ОИИ, а во-вторых, насколько опасен текущий ИИ, который у нас есть? Я не думаю, что текущий ИИ, который у нас есть, представляет собой экзистенциальную угрозу, но он опасен. Во многих смыслах я думаю, что это угроза демократии. Это не угроза человечеству. Он не уничтожит всех людей. Но это довольно серьезный риск.

ЧИТАТЬ   После майских праздников сотрудники получат нетипичные выплаты: что нового для сотрудников

Не так давно вы обсуждали Янн ЛеКун, главный специалист по искусственному интеллекту в Meta. Я не знаю что этот лоскут был в точку — настоящий смысл нейронных сетей глубокого обучения?

Итак, ЛеКун и я действительно обсуждали много вещей во время много лет. У нас были публичные дебаты, модератором которых в 2017 году был философ Дэвид Чалмерс. [LeCun] чтобы иметь другой реальный спор с тех пор, и он не будет. Он предпочитает подтвитить меня в Твиттере и тому подобное, что я не думаю, что это самый взрослый способ вести беседу, но поскольку он важная фигура, я отвечаю.

Я думаю, что мы не согласны с одной вещью. [currently] то есть, ЛеКун считает, что хорошо использовать эти [large language models] и что здесь не может быть никакого вреда. Я думаю, что он очень ошибается в этом. Существуют потенциальные угрозы для демократии, начиная от преднамеренной дезинформации, созданной злоумышленниками, и заканчивая случайной дезинформацией — например, профессора права, которого обвинили в сексуальных домогательствах, хотя он их не совершал. [to the ability to] тонкое формирование политических убеждений людей на основе обучающих данных, о которых общественность даже ничего не знает. Это как соцсети, только более коварные. Вы также можете использовать эти инструменты, чтобы манипулировать другими людьми и, вероятно, обманывать их во всем, что вы хотите. Вы можете масштабировать их массово. Здесь определенно есть риски.

Вы сказали кое-что интересное о Сэме Альтмане во вторник, сказав сенаторам, что он не сказал им, что было его самым большим страхом, который вы назвали «Германия», и перенаправив их на него. Чего он до сих пор не сказал, так это ничего об автономном оружии, которое я обсуждал с ним несколько лет назад как серьезную проблему. Мне показалось интересным, что оружие не появилось.

ЧИТАТЬ   Активность метарекламы попала под временные меры во Франции после подозрений в нарушении антимонопольного законодательства

Мы рассмотрели много тем, но многое еще не рассмотрели, включая правоохранительные органы, что действительно важно, национальную безопасность, автономное оружие и тому подобное. Будет еще несколько [these].

Мы говорили о системах с открытым исходным кодом и закрытых системах?

Едва дошло. Очевидно, это очень сложный и интересный вопрос. Правильный ответ действительно не ясен. Вы хотите, чтобы люди занимались независимой наукой. Может быть, вы хотите иметь какую-то лицензию на то, что будет развернуто в очень больших масштабах, но это сопряжено с особыми рисками, в том числе угрозами безопасности. Неясно, хотим ли мы, чтобы каждый злоумышленник имел доступ к сколь угодно мощным инструментам. Таким образом, есть аргументы за и против, и правильный ответ, вероятно, будет состоять в том, чтобы разрешить разумную степень открытого исходного кода, но также и ограничить то, что можно сделать и как его можно развернуть.

Любые конкретные мысли о стратегии Meta по отказу от своей языковой модели в мире чтобы люди возились?

я не думаю, что это здорово [Meta’s AI technology] LLaMA здесь, чтобы быть честным. Думаю, это было немного небрежно. И знаете, это буквально один из джинов, вышедших из бутылки. Отсутствовала правовая инфраструктура; насколько мне известно, они ни с кем не советовались о том, что они делали. Может быть, они и сделали, но процесс принятия решения с этим или, скажем, с Bing, в основном справедлив: компания решает, что мы собираемся это сделать.

Но некоторые решения, которые принимают компании, могут нанести ущерб либо в ближайшем будущем, либо в долгосрочной перспективе. Поэтому я думаю, что правительства и ученые должны играть все более важную роль в принятии решений. [through a kind of] FDA для ИИ, где, если вы хотите выполнить крупномасштабное развертывание, сначала попробуйте его. Вы говорите о рентабельности. Вы даете ему еще одну попытку. И в конечном счете, если мы убедимся, что выгоды перевешивают риски, [you do the] крупномасштабное распространение. Но прямо сейчас любая компания в любое время может решить развернуть что-то для 100 миллионов клиентов и сделать это без какого-либо государственного или научного надзора. У вас должна быть система, в которую могут вмешиваться определенные беспристрастные органы.

ЧИТАТЬ   Несмотря на беспорядочные IPO, есть веские причины для оптимизма в отношении стартапов в области страховых технологий.

Откуда взялись эти беспристрастные авторитеты? Разве не все, кто знает, как эти вещи работают, уже работают в компании?

Я не. [Canadian computer scientist] Йошуа Бенжио нет. Есть много ученых, которые не работают в этих компаниях. Это настоящее беспокойство, как вы получите достаточное количество этих шашек и как заставить их это делать. Но здесь есть 100 000 ИТ-специалистов, обладающих определенными знаниями. Не все из них работают на Google или Microsoft по контракту.

Хотели бы вы сыграть роль в этом агентстве ИИ?

Мне интересно, я думаю, что все, что мы строим, должно быть глобальным и нейтральным, возможно, некоммерческим, и я думаю, что у меня есть хороший нейтральный голос, которым я хотел бы поделиться и попытаться привести нас к хорошему.

Каково это сидеть перед Судебным комитетом Сената? И как вы думаете, вас снова пригласят?

Я не был бы шокирован, если бы меня снова пригласили, но я понятия не имею. Я был очень глубоко тронут этим, и я был действительно глубоко тронут тем, что оказался в этой комнате. Думаю, это немного меньше, чем по телевизору. Но казалось, что все там пытались сделать все возможное для Соединенных Штатов — для человечества. Все знали важность момента, и очевидно, что сенаторы показали свою лучшую игру. Мы знали, что были там по какой-то причине, и мы сделали все возможное.



Source

От admin