Примерно в то время, когда Дж. Роберт Оппенгеймер узнал, что Хиросима была сбита (наряду со всеми остальными в мире), он начал глубоко сожалеть о своей роли в создании этой бомбы. В какой-то момент во время встречи президент Трумэн Оппенгеймер заплакал и выразил сожаление. Трумэн назвал его плаксой и сказал, что больше никогда не хочет его видеть. И Кристофер Нолан надеется, что когда зрители в Силиконовой долине увидят его фильм Оппенгеймер (выходит 21 июня) увидят его интерпретацию всех этих событий, они тоже увидят что-то свое.
После просмотра Оппенгеймер Вчера в отеле Whitby Кристофер Нолан присоединился к группе ученых и Кай Берд, одному из авторов книги, на которой основан Оппенгеймер, чтобы поговорить о фильме. Американский Прометей. Публикой были в основном ученые, которые смеялись над эгоистичными шутками физиков в фильме, но было и несколько журналистов, включая меня.
Мы выслушали очень короткие дебаты об успехе ядерного сдерживания, и доктор Том Мейсон, нынешний менеджер Лос-Аламоса, объяснил, сколько нынешних лаборантов сыграло в фильме эпизодические роли, так как большая часть его была в ближайшем турне. Но ближе к концу разговора модератор Чак Тодд из Познакомьтесь с прессой, спросил Нолана, что, по его мнению, Силиконовая долина может извлечь из этого фильма. «Я думаю, что я хотел бы, чтобы они убрали концепцию подотчетности», — сказал он Тодду.
«Применительно к ИИ? Это ужасающая возможность. Противный.
Затем он пояснил: «Когда вы внедряете инновации с помощью технологий, вы должны обеспечить подотчетность». Он имел в виду широкий спектр технологических инноваций, которые были приняты Кремниевой долиной, в то время как те же самые компании неоднократно отказывались признать причиненный ими вред. «Увеличение числа компаний за последние 15 лет, использующих такие слова, как «алгоритм», не зная, что они означают в осмысленном математическом смысле. Они просто не хотят брать на себя ответственность за то, что делает этот алгоритм.
Он продолжил: «И применительно к ИИ? Это ужасающая возможность. Противный. Не в последнюю очередь потому, что системы ИИ внедряются в оборонную инфраструктуру., в конечном итоге им будет предъявлено обвинение в ядерном оружии, и если мы позволим людям говорить, что это отдельная сущность от человека, который использует, программирует и использует ИИ, то мы обречены. Это должно быть об ответственности. Нам нужно привлечь людей к ответственности за то, что они делают с инструментами, которые у них есть.
Хотя Нолан не упомянул какую-то конкретную компанию, нетрудно понять, о чем он говорит. Такие компании, как Google, Meta и даже Netflix, в значительной степени полагаются на алгоритмы для привлечения и удержания аудитории, и эта зависимость часто приводит к непреднамеренным и часто неприятным результатам. Вероятно, самым замечательным и ужасным является вклад Меты в геноцид в мьянме.
«По крайней мере, это служит предостережением».
В то время как раунд извинений почти гарантирован через несколько дней после того, как алгоритм компании сделает что-то ужасное, алгоритмы остаются. Дискуссии даже были начаты с исключительно алгоритмическое кормление. Иногда компании могут дать вам инструмент, как это сделал Facebook, чтобы отключить его, но эти алгоритмы черного ящика остаются, и очень мало говорят обо всех потенциально плохих результатах и много говорят о хороших.
«Когда я разговариваю с ведущими исследователями ИИ, они прямо сейчас называют это моментом Оппенгеймера», — сказал Нолан. «Они обращаются к его истории, чтобы рассказать, какие обязанности ученых заключаются в разработке новых технологий, которые могут иметь непредвиденные последствия».
«Как вы думаете, Силиконовая долина думает об этом прямо сейчас?» — спросил его Тодд.
— Говорят, что да, — ответил Нолан. «И это, — усмехнулся он, — это полезно». По крайней мере, это в разговоре. И я надеюсь, что этот процесс осмысления продолжится. Я не говорю, что история Оппенгеймера предлагает простые ответы на эти вопросы. Но, по крайней мере, это служит предостережением.