Использование искусственного интеллекта в судопроизводстве должно быть под контролем, с использованием ограничительных механизмов, о чем свидетельствует опыт Китая, заявила преподаватель базовой кафедры Адвокатского бюро ЕПАМ, член Комиссии Ассоциации юристов России по новым технологиям и правовому обеспечению цифровизации общества Елена Авакян.
«Как показывают опросы, проведенные в этом году в России, 36% адвокатов подтвердили, что они ежедневно используют искусственный интеллект в своей деятельности. Более 70% опрошенных судей подтвердили, что они так или иначе используют искусственный интеллект. На самом деле, это большая проблема, потому что использование искусственного интеллекта в судопроизводстве, и мы об этом говорили с самого начала, и я, как эксперт, об этом говорю уже лет пять, не должно быть бесконтрольным. В обязательном порядке должны быть ограничительные механизмы и должна быть создана специальная закрытая система ИИ, которая будет способствовать принятию судебных решений», – сообщила Елена Авакян на круглом столе, посвященном вопросам цифровизации правосудия, в рамках организованной Верховным судом Абхазии конференции.
По словам эксперта, при применении технологий искусственного интеллекта речь идет о трансграничной передаче данных, и судьи загружают материалы дел в большие лингвистические модели без какой-либо предварительной обработки.
«Я верю, что ни один судья не скормил искусственному интеллекту ни одно дело, находящееся в режиме государственной тайны. По крайней мере, верю в этот разум, в наличие его. Но тем не менее, когда мы загружаем большое количество сведений и обучаем иностранную сеть, мы должны понимать, что мы обучаем ее специфике нашего культурного кода, специфике нашего понимания, специфике нашего судопроизводства», – пояснила Елена Авакян .
Она обратила внимание на то, что как нейросеть будет обучена в самом начале, зависит ее дальнейшее будущее.
«От того, как мы обучим нейросеть в самом начале, зависит все ее дальнейшее будущее. Есть непреложный закон: переучить нейросеть нельзя, можно только перезапустить. Что чрезвычайно дорого и чрезвычайно долго. Поэтому большие лингвистические модели сегодня и обладают вот этими самыми известными набившими оскомину ошибками, – пояснила Елена Авакян. – Из каждого утюга сегодня рассказывают про галлюцинации искусственного интеллекта. Но не все в должной степени осознают опасность, когда мы говорим о таких галлюцинациях на государственном уровне».
Одно дело, когда в результате допущенной ошибки адвокат сослался на несуществующее дело, и совсем другое, когда судья положил в основу своего решения несуществующую позицию.
«Такое решение ложится в основу обучения искусственного интеллекта, и вот мы получаем системную ошибку, вытащить которую будет чрезвычайно сложно. Поэтому первая этическая развилка – это то, кто, как и на каких условиях обучает [ИИ]», – отметила Елена Авакян.
По ее словам, Китай – на сегодняшний день единственная страна, которая решилась в полной мере внедрить искусственный интеллект в судопроизводство. Была создана даже не большая лингвистическая модель, а программа, которая обучалась исключительно на закрытом массиве данных – так называемый narrow AI, и эта система не выводится за пределы эксперимента, потому что она вызвала очень неоднозначную общественную реакцию.
Елена Авакян в своем выступлении обратила внимание и на главную этическую проблему: кто несет ответственность за принятое решение.
«Надо отметить, что этические кодексы всего мира отвечают на этот вопрос однозначно: ответственность несет человек. Если искусственный интеллект применил адвокат, ответственность несет адвокат. Любую, в том числе до утраты статуса. Если искусственный интеллект применил судья и в конечном итоге допустил галлюцинацию в тексте, ответственность несет судья», – рассказала Елена Авакян.
По ее словам, большие консалтинговые компании высказывают сомнения в целесообразности использования искусственного интеллекта в ситуации, когда на генерацию материала тратится 15 минут, а потом на его проверку – 40 часов. К тому же если сейчас ИИ заменяет младших юристов, то через 10 лет откуда возьмутся старшие, задается вопросом специалист.
«Если я не могу сегодня научить младшего юриста, ему не на чем учиться, его работу делает искусственный интеллект. А где мы через 10 лет возьмем тех, кто будет принимать решения? Если они сегодня уже привыкли апеллировать к искусственному интеллекту и не хотят напрягать свой. Это огромная, глобальная этическая проблема», – резюмировала эксперт.