|
Единый республиканский
инновационный бизнес-портал |
Зарегистрируйтесь и о Вас узнают потенциальные клиенты!
|
Юрист рассказал о правовых рисках использования нейросети в бизнесе
Юрист рассказал о правовых рисках использования нейросети в бизнесе Масштабное внедрение искусственного интеллекта в российском корпоративном секторе начало выявлять обратную сторону технологического прогресса. То, что позиционировалось как инструмент оптимизации и прорывной эффективности, на практике оборачивается юридическими рисками и ощутимыми потерями для бизнеса. Об этом сообщил юрист и правозащитник предпринимателей Антон Ивлев. По словам юриста, корень проблемы кроется не в самих алгоритмах, а в иллюзии управленцев, что ответственность за действия машины можно делегировать самой нейросети. Слепое доверие технологиям приводит к ошибкам, которые обходятся слишком дорого. В качестве примера эксперт привел американский случай, когда адвокат доверился ChatGPT и представил в суд заключение с вымышленными ссылками на дела. Итог — крупный штраф и репутационные потери. Аналогичная ситуация произошла с экс-адвокатом Майклом Коэном, который использовал Google Bard. Эти инциденты показали: документ, созданный с помощью ИИ, должен быть проверен человеком, иначе это «профессиональное самоубийство». «Многие полагают, что машина объективна. Это глубочайшее заблуждение. Алгоритм лишь обрабатывает данные, предоставленные человеком, со всеми нашими стереотипами и предрассудками», — отмечает Ивлев. Примеры из Британии и США показали дискриминацию по расовому и социальному признаку в автоматизированных системах, а в Евросоюзе (ЕС) впервые запретили использование системы SyRI, которая чрезмерно контролировала получателей пособий. Машина не создала предрассудки — она их усилила и автоматизировала. Как уточнил Ивлев, главные риски сегодня — внутренние. Сотрудники, работающие с неконтролируемыми ИИ-инструментами, становятся источником угроз. Автоматизация приводит к сокращениям, нарушения процедуры увольнения гарантирует судебные споры, а размывание ответственности за результаты работы нейросети создает новые юридические риски. Кроме того, утечки коммерческой информации через внешние ИИ-сервисы подрывают безопасность бизнеса. «Искусственный интеллект из технологической инновации превращается в серьезный правовой вызов, требующий не слепого внедрения, а вдумчивого юридического сопровождения. Без четких внутренних регламентов, персональной ответственности сотрудников и трезвой оценки возможностей алгоритмов эйфория от прогресса неизбежно сменится горечью от судебных издержек. Сегодня главная задача любого руководителя — не гнаться за трендами, а выстроить систему, в которой машина остается эффективным инструментом, но окончательное решение и полную ответственность всегда несет человек», — заключил Ивлев. Источник: "Известия" Изображение: freepik.com |
Ваша компания
Зарегистрируйтесь и о Вас узнают потенциальные клиенты!
Новости on-line |
|
© 2009—2025
Единый республиканский бизнес-портал
О портале | Контактная информация | Реклама на портале | Правила пользования | |
Сделано в
«Техинформ»
Уфа
|
|
| Информация на сайте не является публичной офертой |