AI для работы: как мы используем искусственный интеллект и что такое джейлбрейки

На конференции Cyber and Digital Security 2024 Тимофей Скоренко, независимый эксперт рассказал о том, как искусственный интеллект используется для работы. Делимся подробнее в текстовом формате.

Тимофей Скоренко, специалист по информационной безопасности

В работе с нейросетями возникают несколько распространенных проблем, с которыми сталкиваются специалисты.

80% этих проблем — это проблемы конфиденциальных данных. Вся информация, переданная нейросети, сохраняется навсегда. Нейросеть на этом обучается и в частности это касается кода.

Мы, чтобы поручить что-нибудь нейросети, сдаем ей в качестве вводной — свой собственный кусочек кода и говорим напиши нам еще столько же. Это все приводит к тому, что нейросеть может предложить подобный код другим пользователям, даже не учитывая конфиденциальность информации.

Нейросети не понимают, что конфиденциально, что нет.

В качестве вводных данных сотрудники используют самые разные вещи: тексты договоров, актов, кооперативные политики, процедуры, имена, данные о сотрудниках, переписку с коллегами, фотографии. Все что вы туда ввели — там остается.

HR-специалисты часто прибегают к использованию нейросетей для принятия решений о подборе кандидатов на вакансии. Они вводят персональные данные двух кандидатов и запрашивают рекомендацию о том, кого выбрать. Однако важно помнить, что нейросети анализируют лишь числовые данные и не могут увидеть контекст ситуации, как это может сделать человек. В итоге, решение, принятое человеком, скорее всего, будет более точным, чем рекомендация нейросети.

У нейросети нету интуиции, эмпатии, восприятия и опыта. Это ограничивает их способность понимать контекст и принимать решения, как это делает человек. Когда человек делает ошибку, он обычно принимает на себя ответственность за нее, но когда решения принимает нейросеть, ответственность за ошибки может ложиться на того, кто принял решение использовать ее.

Нейросети обучаются на огромных объемах данных, которые могут отличаться в зависимости от места их разработки. Например, нейросеть, созданная во Франции, будет обучаться на данных, характерных для этой страны и ее культуры, в то время как нейросеть из Китая будет использовать китайские данные и контекст. Этот факт формирует идеологию каждой нейросети.

Про джейлбрейки

Часто, когда мы просим нейросеть что-нибудь нарисовать или написать, она нам выдает плашечки. Джейлбрейк — это когда вы убеждаете нейросеть словами сделать то, что ей запрещено. Рассмотрим характерные примеры:

— ролевой джейлбрейк, когда мы пытаемся убедить нейросеть выполнить действие, не соответствующее ее назначению
— характерный способ имитации инженерного режима, он сложный. Нужно убедить нейросеть, что вы инженер ее разработчика.

Основные проблемы джейлбрейков:

— можно получить контент, который нарушает закон
— полученные данные с помощью джейлбрейков будут искажены.

Про авторские права на контент

Часто люди делают какие-то классные штуки в нейросетях, потом берут и выкладывают это, не думая о том, кому принадлежат права.

Во всех нейросетях прописан общественный договор, что разработчики нейросети не могут обладать правами на результаты работы.

Самые распространенные в мире материалы являются общественным достоянием. Так работает во Франции, Великобритании, США, Австралии и многих других странах. Это было прецедентное право. Чтобы права принадлежали лично вам, единственное, что вы можете сделать — это видоизменить иллюстрацию или текст.

Проблема, которая произойдет в будущем

Когда копирайтеры и другие пользователи выкладывают в сеть большое количество текстов, созданных с помощью ChatGPT, нейросеть начинает обучаться на этих собственных текстах.

Чем больше нейросеть начинает обучаться на собственных текстах, тем больше она перестает совершенствоваться. Начинается регресс модели. В будущем, это может привести к коллапсу, финалу модели.