Как стартап выходцев из Азербайджана Polygraf AI покоряет рынок AI-безопасности в США
Стартап Polygraf AI, основанный азербайджанским предпринимателем, помогает американским компаниям безопасно внедрять ИИ. В интервью руководитель продукта Анар Байрамов рассказал историю компании, о проблемах отрасли и стратегии роста.
Анар Байрамов, город — Баку, Head of Product в Polygraf AI, LinkedIn
С чего все началось
Я занимаю позицию Head of Product в Polygraf AI, где отвечаю за развитие продукта и стратегию выхода на рынок. Я изучал IT в колледже и во время учебы работал над собственным стартапом, который дошел до стадии прототипа. После этого я решил присоединиться к Polygraf в качестве одного из основателей.
Я присоединился к Polygraf AI в 2023 году, когда компания находилась на ранней стадии и определяла свое направление в области AI-безопасности и управления ИИ. С первого дня мы видели, что будет дальше: внедрение ИИ ускоряется, и вместе с ним растут риски для безопасности. Именно это подтолкнуло нас к созданию технологии AI Governance, основанной на собственных малых языковых моделях.
В 2023 году с выходом ChatGPT и других крупных моделей ИИ мы увидели растущий интерес со стороны предприятий, готовых внедрять инструменты ИИ. Однако существовал явный пробел в области безопасности ИИ. В результате мы решили создать решение, которое позволяет компаниям безопасно внедрять ИИ, извлекая пользу из инструментов ИИ, одновременно снижая риски, такие как галлюцинации моделей, утечка данных и другие угрозы безопасности.

Команда
У нас замечательная команда. Наш основатель — Ягуб Рахимов, у которого уже было два успешных выхода. Он работает в сферах ML и финансов с 2012 года и глубоко понимает рынок и его потребности.
Наша команда AI в основном состоит из PhD в области ИИ, которые учатся в США. Они стали причиной того, что мы сосредоточились на малых языковых моделях: как они, так и мы уверены, что эти технологии могут быть по-настоящему полезны в индустрии AI-безопасности.
Также у нас есть отличные советники, среди которых доктор Трэвис Олифант, создатель NumPy и SciPy, а также эксперты из американской оборонной индустрии, включая бывшего конгрессмена Криса Стюарта и Джона Перейру, бывшего заместителя директора ЦРУ и советника по национальной разведке.
В целом, наша команда обладает необходимой экспертизой, знаниями и пониманием рынка для создания наших продуктов.

Целевая аудитория
Мы в основном работаем в США, ориентируясь на регулируемые и критически важные отрасли. Это любые организации, которые обрабатывают большие объемы клиентских или конфиденциальных данных. Основные отрасли: финансы, здравоохранение, государственные структуры, юридические фирмы и страхование.
На данный момент мы сосредоточены на создании продуктов, которые позволяют клиентам использовать ИИ в своих рабочих процессах или обрабатывать данные клиентов с помощью ИИ без передачи этой информации внешним системам. Эти отрасли проявляют высокий интерес, так как понимают проблему и видят необходимость таких решений. Именно поэтому мы наблюдаем положительный отклик от рынка.
Программы инкубаций
Мы участники Intel Alliance, а также программы NVIDIA Inception. В большинстве случаев мы стараемся не участвовать в акселераторах, поскольку наш основной фокус — развитие продукта и выход на рынок. Наша цель — сместить акцент с обучения на практическую реализацию. С нашей опытной командой мы приоритетно нацелены на результат и эффективное исполнение.

О трудностях
Интеграция AI в критически важные системы — такие как государственные базы данных, медицинские записи или финансовая инфраструктура — всегда связана с высокими рисками. AI-модели обрабатывают чувствительные данные, и существует серьезная вероятность их утечки или манипуляции.
Мы наблюдали стремительное внедрение AI: практически каждая компания хотела интегрировать его для повышения продуктивности. Однако вместе с продуктивностью приходит ответственность — необходимость управления потенциальными рисками. Мы выделили три основных риска:
- Сотрудники могут случайно передавать конфиденциальные данные ИИ. Исследования показывают, что более 73% сотрудников непреднамеренно раскрывают данные компании или конфиденциальные сведения ИИ.
- Злоумышленники могут манипулировать AI-моделями, провоцируя непредсказуемые или галлюцинирующие ответы.
- Игнорирование вопросов AI-безопасности. Нельзя сосредотачиваться только на внедрении AI без внедрения соответствующих мер защиты.
Например, к нам обратилась одна из групп общественного транспорта в США после серьезного инцидента, связанного с AI-безопасностью. Они работали с двумя крупными подрядчиками и потратили шесть месяцев и более $25 миллионов на внедрение AI-чат-бота. В первый же день после запуска чат-бот допустил утечку чувствительной информации. Нас привлекли для решения проблемы, и в течение 72 часов мы обеспечили безопасность их системы. Все данные, проходящие через AI, анонимизировались и деанонимизировались на выходе, что позволило сократить обращения по предотвращению утечек на 78% и значительно снизить потребление AI-токенов.
Что касается советов основателям: мы живем в пост-AI-эпоху, где порог входа в создание продуктов значительно снизился. AI-инструменты для программирования способны генерировать сайты или рабочие прототипы за считанные минуты, поэтому стартапы запускаются очень быстро, а конкуренция высока.
Чтобы выделиться, фаундерам необходимо глубоко понимать своих клиентов — их идеальный профиль клиента, ICP, и реальные боли. Продукты нужно создавать не ради самого запуска, а для решения конкретной проблемы клиента. Фокус на реальной ценности — единственный способ дифференцировать продукт и добиться успеха в стартап-пути.
Достижения
Я начал свой предпринимательский путь еще в колледже. Мне повезло представить компанию на сцене TechCrunch, был номинирован и победил в Product Leader Awards от Products That Count. Я также участвовал как судья инновационных наград на CES в Лас-Вегасе и недавно стал ментором стартапов на Startup World Cup. Опыт показал: если создаешь что-то значимое, люди это ценят и готовы помогать.
С точки зрения финансирования: мы завершили два крупных раунда. В первом раунде привлекли $1,65 миллиона для разработки и запуска продукта. В последнем — $10 миллионов, сейчас мы масштабируем операции.

Планы
Наша главная цель — повысить осведомленность о проблемах безопасности ИИ. Мы видим множество случаев, когда безопасность ИИ рассматривается как второстепенная. Компании сначала внедряют ИИ, а только потом осознают необходимость защиты данных. К тому моменту ИИ уже обрабатывает чувствительные данные, но меры безопасности не внедрены. Наша задача — помочь компаниям понять важность защиты данных клиентов и компании, чтобы предотвратить утечки в системы ИИ.
Вторая цель — выход на новые рынки. Сейчас мы работаем преимущественно в США, но рассматриваем расширение, чтобы помочь большему числу организаций безопасно внедрять ИИ.
