Искусственный интеллект (ИИ) настолько стал частью нашей повседневной жизни, что его трудно избежать, даже если мы его не осознаем. В то время как ChatGPT и использование алгоритмов в социальных сетях привлекают большое внимание, одной важной областью, в которой ИИ обещает оказать влияние, является право.

Идея определения вины ИИ в рамках судебного процесса может показаться надуманной, но сейчас нам нужно серьезно подумать об этом.

Действительно, возникают вопросы о совместимости ИИ с проведением справедливых судебных процессов. ЕС принял закон, регулирующий, как ИИ может и не может использоваться в уголовном праве.

В Северной Америке алгоритмы, разработанные для поддержки справедливого судебного разбирательства, уже используются. К ним относятся «Компас», «Оценка общественной безопасности» (PSA) и «Досудебная оценка рисков» (PTRA). В ноябре 2022 года Палата лордов опубликовала отчет, в котором рассматривается использование технологий искусственного интеллекта в системе уголовного правосудия Великобритании.

Вспомогательные алгоритмы С одной стороны, было бы интересно увидеть, как ИИ может значительно облегчить долгосрочное правосудие, например, сократить расходы на юридические услуги или управлять судебными разбирательствами по мелким правонарушениям. Системы ИИ могут избегать ошибок, типичных для человеческой психологии, и могут подвергаться строгому контролю. Для некоторых они могут быть даже более беспристрастными, чем судьи-люди.

Кроме того, алгоритмы могут генерировать данные, чтобы помочь адвокатам выявлять прецеденты в прецедентном праве, находить способы рационализации судебных разбирательств и поддерживать судей.

С другой стороны, повторяющиеся автоматизированные решения алгоритмов могут привести к отсутствию творчества в толковании закона, что может привести к замедлению или остановке развития правовой системы.

Инструменты ИИ, предназначенные для использования в суде, должны соответствовать ряду европейских правовых инструментов, устанавливающих стандарты соблюдения прав человека. К ним относятся Европейская процессуальная комиссия по эффективности правосудия, Европейская этическая хартия об использовании искусственного интеллекта в судебных системах и их среде (2018 г.) и другие законодательные акты, принятые в последние годы для формирования эффективной основы использования и ограничений. ИИ в уголовном правосудии. Однако нам также нужны эффективные механизмы контроля, такие как судьи и человеческие комитеты.

ЧИТАТЬ   Как прошить iPhone с текущей версией iOS

Контроль и управление искусственным интеллектом является сложной задачей и охватывает различные области права, такие как закон о защите данных, закон о защите прав потребителей и закон о конкуренции, а также ряд других областей, таких как работа. Например, решения, принимаемые машинами, напрямую подпадают под действие GDPR, Общего регламента по защите данных, включая фундаментальное требование справедливости и подотчетности.

В GDPR есть положения, запрещающие людям принимать только автоматизированные решения без вмешательства человека. Были обсуждения этого принципа и в других областях права.

Проблема уже беспокоит нас: в Соединенных Штатах инструменты «оценки рисков» используются для облегчения досудебных оценок, которые определяют, следует ли обвиняемому быть освобожденным под залог или содержаться под стражей до суда.

Примером может служить алгоритм Compas в США, который был разработан для расчета риска рецидивизма — риска продолжения совершения преступлений даже после наказания. Тем не менее, были обвинения — категорически отвергнутые компанией, стоящей за этим, — что алгоритм Compas имеет непреднамеренную расовую предвзятость.

В 2017 году мужчина из Висконсина был приговорен к шести годам тюремного заключения на основании приговора, частично основанного на его баллах по компасу. Частная компания, владеющая Compass, считает свой алгоритм коммерческой тайной. Таким образом, ни суды, ни ответчики не уполномочены проверять использованную математическую формулу.

На пути к общественным изменениям? Поскольку право считается гуманитарной наукой, важно, чтобы инструменты ИИ помогали судьям и практикующим юристам, а не заменяли их. Как и в современных демократиях, правосудие следует за разделением властей. Это принцип, согласно которому институты государства, такие как законодательная власть, которая принимает законы, и судебная власть, система судов, обеспечивающих соблюдение закона, четко разделены. Это сделано для защиты гражданских свобод и защиты от тирании.

ЧИТАТЬ   Исследование «МегаФона»: Россияне все больше интересуются новостройками в Татарстане

Использование ИИ для судебных решений может нарушить баланс сил между законодательной и судебной властью, бросив вызов человеческим законам и процессу принятия решений. Следовательно, ИИ может привести к изменению наших ценностей.

А поскольку все виды персональных данных могут использоваться для анализа, прогнозирования и влияния на действия людей, использование ИИ может переопределить, что считается плохим и хорошим поведением — возможно, без нюансов.

Также легко представить, как ИИ станет коллективным разумом. Коллективный ИИ незаметно появился в сфере робототехники. Дроны, например, могут общаться друг с другом, чтобы летать строем. В будущем мы могли бы представить, что все больше и больше машин взаимодействуют друг с другом для выполнения всевозможных задач.

Создание беспристрастного алгоритма правосудия может означать рассмотрение алгоритма более способным, чем человек-судья. Возможно, мы даже захотим доверить этому инструменту судьбу собственной жизни. Возможно, однажды мы превратимся в общество, подобное тому, что изображено в серии научно-фантастических романов Айзека Азимова «Цикл роботов», где роботы обладают интеллектом, подобным человеческому, и берут под свой контроль различные аспекты жизни общества.

Мир, в котором ключевые решения делегированы новым технологиям, пугает многих людей, возможно, потому, что они опасаются, что он сотрет то, что в основе своей делает нас людьми. Но в то же время ИИ является мощным потенциальным инструментом, облегчающим нашу повседневную жизнь.

В человеческом мышлении интеллект не представляет собой состояние совершенства или непогрешимой логики. Например, ошибки играют важную роль в поведении человека. Они позволяют нам двигаться к конкретным решениям, которые помогают нам улучшать то, что мы делаем. Если мы хотим расширить использование ИИ в нашей повседневной жизни, было бы разумно продолжать применять человеческое мышление для управления им.

ЧИТАТЬ   Расходы на строительство в США выросли больше, чем E... | Новости Форекс...

Samsung Galaxy A34 5G недавно был запущен компанией в Индии вместе с более дорогим смартфоном Galaxy A54 5G. Чем этот телефон отличается от Nothing Phone 1 и iQoo Neo 7? Мы обсуждаем это и многое другое в Orbital, подкасте Gadgets 360. Orbital доступен по адресу Спотифай, Гаана, ДжиоСаавн, Подкасты Google, подкаст Apple, Амазонская музыка и везде, где вы получаете свои подкасты.
Партнерские ссылки могут создаваться автоматически — подробности см. в нашем заявлении об этике.

Source

От admin