№ 1 январь 2026 — 07 января 2026

Нейросети и нормы права. Как не подвести себя и свой муниципалитет, используя искусственный интеллект в работе

Версия для печати 423 Материалы по теме
Нейросети и нормы права. Как не подвести себя и свой муниципалитет, используя искусственный интеллект в работе

Искусственный интеллект и нейросети стремительно вливаются в повседневную жизнь и профессиональную деятельность, в том числе в работу государственных и муниципальных служащих. Эти технологии открывают поистине уникальные возможности для автоматизации рутинных процессов. Однако, как у любого инновационного инструмента, у ИИ есть свои вызовы и спорные моменты, которые требуют внимательного изучения и регулирования. Одними из самых острых остаются такие вопросы, как авторское право и использование персональных данных.

Михаил Владимирович Хохолков, медиаюрист, автор канала «Медиаправо», эксперт Аналитического центра при Правительстве РФ

Что «под капотом»

Работу любой нейросети можно сравнить с подбрасыванием монетки. Попробуйте провести один тест, предложив «сетке» решение простой задачи. Например, у вас есть металлическая кружка, и вы заметили, что у нее отпилено дно, но верх запаян. Как из нее пить? Любой человек скажет — переверни кружку. А нейросети выдадут как минимум три варианта решения задачи, и ни один из них не попадет в точку. Просто нужно понимать, что такое нейросеть и как она работает «под капотом».

Безусловно, сравнение с подбрасыванием монетки — довольно грубое, поскольку при генерации ответа задействована большая математическая модель. Условно говоря, для того чтобы выдать ответ, «сетка» сравнивает каждое слово в запросе с большим массивом данных из интернета, анализирует, насколько оно подходит по смыслу к параметрам, заданным промптом — инструкцией, которую пользователь передает ИИ для выполнения определенной задачи. И каждый раз результат генерации — это вероятность, на которую не всегда можно повлиять.

Нейросети мы можем доверить выполнение простых задач. А вот сделать более сложную, требующую настоящего творчества работу — с большой натяжкой. В конечном итоге, кроме человека, который нажал на кнопку «опубликовать», никто за результат работы нейросети не отвечает.

Более того, сейчас многие нейронки не дают точных ответов по целому ряду направлений — например, они уже некоторое время отвечают на юридические или медицинские вопросы с оговоркой: «Я не юрист, я не врач, пожалуйста, записывайтесь на консультации специалистов». Поэтому получить исчерпывающую, а главное, достоверную, информацию от всезнающей нейросети не всегда возможно.

Доверять или нет

Сегодня нейросеть можно рассматривать как стажера-помощника, при работе с которым, как и с малоопытным человеком, могут возникнуть определенные риски.

Во-первых, любой документ, который вы загрузили в нейронку, становится доступным практически для всех. Представьте, что у вас есть копировальный аппарат, но в соседнем здании. И вы берете всю внутреннюю конфиденциальную документацию — договор с подрядчиком, положение о коммерческой тайне, штатное расписание и так далее — и передаете рандомному человеку для ксерокопирования. По сути, в ваше отсутствие он может сделать с вашими документами все, что угодно. Данные могут попасть в руки не только конкурентов, но и мошенников. Можете представить себе такой сценарий в реальной жизни? А нейронка именно так и работает — все, что в нее загрузили, остается там.

Второй момент — персональные данные. На старте разработчики нейросетей особо не заморачивались над качеством базы и поэтому, грубо говоря, загружали в «сетку» весь интернет. Сколько там сегодня наших персональных данных — большой вопрос. Безусловно, на данный момент юристы подключились к решению задач конфиденциальности, но это произошло, когда базы нейросетей уже накопили критическую массу персональной информации.

Повторюсь, данные, загруженные в базы, там и остаются, а также могут попасть к совершенно неизвестному лицу. Из этого делаем вывод — никакую конфиденциальную информацию, коммерческие и персональные данные загружать в нейросеть мы не должны. В лучшем случае это могут быть обезличенные данные. Это же касается и так называемых специальных нейронок, которые обезличивают документы — личные данные, удаленные из документов, также попадают в базы и остаются там навсегда.

В-третьих, надо понимать, что никогда нельзя быть уверенным, что нейросеть железно даст корректный ответ. Стоит отталкиваться от того, что она, скорее всего, соврет, поскольку сегодня нейронки только обучаются. Более того, у разных нейросетей — разные модальности. Некоторые виды из них:

  • текст — обрабатывают и создают документы, сообщения;
  • изображения — редактируют фотографии, диаграммы, сканы документов, генерируют картинки;
  • аудио — обрабатывают и генерируют звуки, музыку, речь;
  • видео — создают кадры со звуком.

Грубо говоря, каждая нейронка работает по-своему. Например, возьмем LLM (Large Language Model, «большая языковая модель») — нейросетевой алгоритм, обученный на больших массивах данных для работы с естественным языком. Считает он отвратительно. Внесенные в него числовые примеры приходится перепроверять.

Авторское право

Стоит помнить, что нейронки — это не художественный инструмент, а механизм, который проходит обучение на конкретных многочисленных примерах, размещенных в интернете. Фактически нейросеть можно сравнить с фабрикой плагиата, которая из кусочков чужих картин создает изображение и предлагает его в качестве готового результата. И тут неизбежно возникает вопрос, связанный с авторским правом.

Вопрос авторских прав сегодня звучит особенно остро. Кому принадлежит авторство того, что мы получаем после генерации, — человеку, написавшему запрос, или разработчику нейросети? В гражданском праве есть общепринятый подход: автор произведения — это всегда человек. Нейронка — бездушная машина, которая априори не может быть автором того контента, который получается по итогу генерации.

Есть иной подход, когда создатели различных моделей нейросетей объявляют себя правообладателями генерируемого продукта. И всегда есть вероятность того, что такой контент, который сгенерирован на основе множества данных, содержащихся в интернете, будет признан плагиатом.

Кому стоит бояться претензий со стороны создателей ИИ? Понятно, что если речь идет о генерации текста для простого поста в социальной сети, то риск вызвать недовольство владельцев нейросети минимальный. Для них это не самая интересная история. Но когда мы говорим о больших проектах, о реализации грантов, там вопросы интеллектуальной собственности, включая использование сгенерированного изображения, очень важны. Информация о разных подходах разработчиков нейросетей к тому, какие права они забирают себе, а какие отдают пользователям, представлена в таблице.

Таблица. Подход нейросетей к разграничению авторских прав

Google Gemini*, Midjourney (платный), Claude (free), Alice Al, GigaChat

DeepSeek, Ideogram, Anthropic Claude (business), GigaChat API (платный)

Неизвестные платформы, бесплатные версии, боты в ТГ и т. п.

Платформы сохраняют лицензию на использование ваших запросов и результатов

Права полностью ваши, коммерческое использование возможно

Права неясны, высокие риски юридических претензий

Использовать осторожно

Безопасно

Избегать!

* И бесплатные, и платные версии.

На сегодняшний день судебная практика в этом отношении пока недостаточна обширна. Но тема, безусловно, активно развивается и в ближайшие пять лет совершенно точно сформируется в систему. Потому что сгенерированного контента слишком много, и его пора регулировать.

Как регулируют законы

Откровенно говоря, уже сейчас законодательство несколько запаздывает с правовым регулированием. Но считается, что это нормально, когда технологии опережают законы. Однако законодатели все чаще и чаще поднимают вопрос о том, как именно регулировать сферу искусственного интеллекта.

Глобально на сегодняшний день идет работа над законопроектом об искусственном интеллекте. Думаю, что в ближайшие год-два он будет разработан и утвержден. Совсем недавно на рассмотрение в Госдуму был внесен законопроект, который, наверное, впервые обозначил определение видеоматериала, сгенерированного или обработанного с помощью нейросети. Введено такое понятие, как «синтетическое видео». Но, на мой взгляд, законопроект пока еще требует некоторой доработки. Один из его ключевых моментов — обязанность указывать, что продукт сгенерирован искусственным интеллектом. Это правило касается и тех случаев, когда ты с помощью нейросети просто перевел цветное изображение в черно-белое. Применение ИИ минимальное, но ты обязан пометить изображение как созданное с помощью искусственного интеллекта.

Что касается маркировки контента, сгенерированного нейросетью, то А. В. Горелкин, первый заместитель председателя Комитета Государственной Думы по информационной политике, информационным технологиям и связи, недавно высказывался, что сгенерированного контента так много, что впору маркировать контент, созданный человеком. И я с ним согласен. По разным подсчетам, порядка 45% контента сегодня так или иначе сформировано с помощью нейросетей.

Общаясь с коллегами, особенно с работающими в муниципальных ведомствах, я вижу, что есть либо прямой, либо негласный запрет на использование нейронок. Возможно, это связано с бурным развитием зарубежных сервисов, которые попадают под запрет в связи с импортозамещением. Но запрещать — нецелесообразный путь, поскольку тот, кто хочет использовать нейросети, все равно будет их использовать.

Поэтому в первую очередь нужно озаботиться не запретами, а созданием возможностей для обучения сотрудников. Есть хорошие российские нейросети — GigaChat, Alice AI. И если мы говорим про госслужбу, то предпочтение, безусловно, будет отдано отечественным нейронкам. Для их освоения госслужащими существует множество образовательных программ, нужно только выбрать подходящую.

В заключение я обязан сказать, что, внедряя в работу нейронку, необходимо тщательно продумать: что мы можем загрузить в нейросеть, что можем, но предварительно обезличив, а что категорически не допускаем. И такие критерии стоит закрепить во внутренних регламентах по работе с нейросетями. Это нужно для того, чтобы не подвести ни себя, ни своего работодателя, ни свой регион или муниципалитет.


Поделиться: