Петко Гетов: Одна из самых больших ошибок бизнеса — использовать ИИ любой ценой

Искусственный интеллект стал модным словом года не только на Уолл-стрит и в технологических лабораториях, но и в деловом мире, что вызвало новую одержимость его внедрением во все виды рабочих процессов. О последствиях бездумного использования ИИ, риске того, что он откроет черную дыру затрат и этических аспектах его использования, Investor.bg поговорил с экспертом в области ИТ-права Петко Гетовым.

— Расскажите подробнее о практике так называемого управления ИИ. Почему это важно для бизнеса и где его применение будет наиболее выгодным?

— Во-первых, необходимо различать два типа управления системами искусственного интеллекта (ИИ). С одной стороны, международное сообщество и отдельные страны уже усердно работают над разработкой правовых рамок, стандартов и законов, регулирующих использование и создание ИИ. Примером этого является европейское регулирование ИИ, так называемый Закон ЕС об ИИ. Это своего рода управление ИИ с точки зрения общественных интересов.

С другой стороны, многие компании по всему миру в настоящее время стремятся внедрить ИИ либо в свои внутренние процессы, либо непосредственно в свои продукты. Поскольку вокруг ИИ, особенно так называемого генеративного ИИ, то есть ChatGPT и подобных чат-ботов, поднято столько ажиотажа и ажиотажа, многие бизнес-лидеры в настоящее время стремятся внедрить больше систем ИИ за меньшее время. Если весь этот процесс внедрения сложных, часто рискованных систем не управляется разумно, компании рискуют создать черную дыру затрат без особой отдачи. С этой точки зрения для значительной части предприятий крайне важно знать, почему, как и какой ценой они интегрируют системы искусственного интеллекта в свои процессы или продукты/услуги.

Петко Гетов

Фото: Личный архив

Петко Гетов — юрист с 8-летним опытом работы в сфере ИТ-права. Он специализируется на управлении и этике ИИ, переговорах по контрактам на корпоративные ИТ-услуги, законодательстве ЕС и регулировании технологий в области ИИ, интеллектуальной собственности в контексте ИИ и оценке рисков в трансграничных транзакциях.

Он имеет две степени магистра права (одну в Берлинском университете имени Гумбольдта по юриспруденции и одну в Лейденском университете в области международного публичного права) и является сертифицированным специалистом по управлению системами искусственного интеллекта (AIGP).

— ИИ — слово года в залах заседаний не только во всем мире, но и в нашей стране. Что бы вы посоветовали компаниям, которые хотят как можно быстрее внедрить решения искусственного интеллекта в свою деятельность?

— В бизнесе всегда есть необходимость как можно быстрее внедрить новые технологии, так было всегда. Ситуация с нынешним бумом систем искусственного интеллекта ничем не отличается, но сама технология имеет свою специфику, к которой бизнесу придется адаптироваться. Стратегия внедрения как можно быстрее и как можно большего количества вещей имеет своих сторонников — идея в том, что, давая себе возможность протестировать новые инструменты за короткий период времени, вы накапливаете опыт и затем можете принимать более правильные решения. К сожалению, практика и научные исследования показывают, что на данном этапе такая спешка работает не очень хорошо. Поэтому я бы посоветовал «действовать медленно» — другими словами, подумайте, прежде чем действовать.

Компаниям очень важно знать, чего они добиваются с помощью ИИ и какую конкретную проблему они решают. Поэтому в большинстве случаев важно иметь внутри самих компаний команду разноплановых экспертов, выстроивших процессы интеграции систем ИИ, с четкими правилами и критическим взглядом на необходимость ИИ для конкретной задачи.

Если в компаниях будут хорошие, работающие и достаточно гибкие процессы управления ИИ, внедрение ИИ-решений станет быстрее и, что более важно, приведет к качественным изменениям в процессах и продуктах бизнеса.

Если весь этот процесс внедрения сложных, часто рискованных систем не управляется разумно, компании рискуют создать черную дыру затрат без особой отдачи.

— Сектор ИИ на данном этапе полон всевозможных приложений и решений, которые еще не успели доказать свою полезность. Какие самые большие ошибки может совершить бизнес в процессе внедрения решений искусственного интеллекта из-за спешки или незнания?

— Одна из самых больших ошибок — использовать ИИ любой ценой. ИИ — это средство, а многие предприятия рассматривают его как цель, и отсюда возникают большие проблемы. Использование ИИ должно иметь определенную цель, а его реализация должна быть адаптирована к услугам, сотрудникам и сложности самого решения. К внедрению ИИ следует относиться как к строительству дома — для постройки дома обычно нужно много людей, которые разбираются в разных вещах, много времени и достаточно денег.

Компании очень часто думают, что, купив какой-то продукт искусственного интеллекта, они автоматически и сразу станут более продуктивными и увеличат как свои доходы, так и прибыль. Однако статистика показывает, что большинство компаний, за исключением таких крупнейших, как Microsoft, Amazon, Nvidia, Google, не добились заметного улучшения ни производительности, ни прибыли. Внедрение ИИ в компании требует времени и денег, а результаты с точки зрения производительности появляются не сразу. У нас уже есть примеры компаний, которые решают уволить многих сотрудников и «заменить» их ИИ — их решение впоследствии оказывается ошибкой и пустой тратой времени и денег.

ИИ может быть чрезвычайно полезен, но только если бизнес знает, почему, когда, где и как его использовать. В противном случае часто достигаются плохие результаты.

— Какие самые большие подводные камни с юридической точки зрения, когда мы говорим об использовании искусственного интеллекта для оптимизации бизнес-процессов?

— Вся правовая база вокруг ИИ на данный момент все еще развивается, и все еще существует большая неопределенность относительно того, как обстоят дела, например, с правами интеллектуальной собственности, защитой персональных данных, дискриминационной практикой, возникающей в результате использования ИИ. В ЕС много говорят о регуляторной сложности правил, но и Китай, и США в настоящее время пишут большое количество правил, стандартов, законов и всевозможных других подобных правил, регулирующих ИИ. В США, например, только в Калифорнии недавно были приняты два разных закона, касающихся ИИ. Иными словами, сложность вопросов с юридической точки зрения серьезно возрастает, и в то же время эти проблемы затрагивают многие ключевые гражданские права и свободы, защищаемые множеством различных законов.

То есть подводными камнями в основном являются неоднозначность, сложность, чрезвычайная динамичность развития и огромное количество законодательных актов, так или иначе прямо или косвенно регулирующих использование ИИ.

Например, если компания хочет внедрить ИИ, чтобы ускорить рассмотрение заявок в процессе набора персонала, то в зависимости от того, где находится эта компания, правила будут разными. В ЕС вскоре вступят в силу правила о так называемых «системах искусственного интеллекта высокого риска», целью которых является защита граждан, помимо других рисков, от дискриминации на рабочем месте. Система, влияющая на решение о приеме на работу человека, считается системой высокого риска, и там бизнесу нужно будет очень тщательно и подробно объяснять, какие меры он принял, чтобы минимизировать риск дискриминации. Штрафы за невыполнение этого требования очень высоки – в зависимости от нарушения до 7% годового оборота или 35 миллионов евро, в зависимости от того, что больше.

— На фоне всего этого стремительного развития отрасли, где место вопроса этичного использования ИИ (так называемая этика ИИ)? Почему это должно иметь значение для предприятий, которые, скажем, не ориентированы непосредственно на работу с потребителями?

— Люди часто связывают этику с теоретическими разговорами, а не с практической пользой. Однако это не всегда так – и в случае с ИИ доказательства уже видны. Недавно несколько крупных компаний, занимающихся искусственным интеллектом, изменили свою политику использования или даже некоторые функциональные возможности своих приложений из-за давления со стороны как пользователей, так и экспертов по этическим соображениям. Примером тому может служить компания Character AI, которая недавно запреты для лиц до 18 лет использовать своего чат-бота из-за огромного давления со стороны родителей, на чьих детях негативно сказывается использование чат-бота.

С другой стороны, уже есть свидетельства того, что компании используют этические нормы в качестве конкурентного преимущества. В Европе продукты Proton гарантируют конфиденциальность, полное шифрование и конфиденциальность для всех своих продуктов, включая чат-бота, что само по себе привлекает новых клиентов. Другой пример — Signal, приложение для обмена сообщениями, которое также обеспечивает защиту данных пользователей. Этика в сфере искусственного интеллекта все чаще используется как конкурентное преимущество, и я считаю, что в будущем это станет еще более важным.

ИИ может быть чрезвычайно полезен, но только если бизнес знает, почему, когда, где и как его использовать — в противном случае это очень часто приводит к плохим результатам.

— Каковы, по вашему мнению, основные принципы ответственного использования ИИ, которые должна применять каждая организация?

— Основные принципы описаны Организацией экономического сотрудничества и развития (ОЭСР). Они определили пять основных принципов заслуживающего доверия ИИ: (1) устойчивое развитие с инклюзивной политикой роста, (2) уважение верховенства закона, прав человека и демократических ценностей, (3) прозрачность и объяснимость, (4) безопасность и безопасность и (5) подотчетность. Эти принципы очень часто проявляются в написании правил – например, европейское регулирование ИИ прямо упоминает все эти принципы в своей преамбуле.

Что эти принципы означают для компаний? Их соблюдение не только обеспечивает соблюдение законов и правил, но и помогает в управлении качеством ИИ. В действительности, конечно, многие компании делают упор на быстрое развитие и серьезную прибыль, а это часто противоречит некоторым из этих принципов. Пока не будет четких правил, эти принципы будут в основном выдавать желаемое за действительное и не будут иметь большого эффекта от своего существования.

— Насколько ответственность за выполнение тех или иных рабочих процессов в компании целесообразно возложить на ИИ и есть ли виды деятельности, которые не следует делегировать искусственному интеллекту?

— Это очень сильно зависит от конкретного бизнеса компании и ее потребностей. Независимое исследование Национального университета Сингапура показывает, что чат-боты, такие как ChatGPT, всегда будут галлюцинировать (то есть ошибаться), потому что это часть их функционирования, и избежать этого технически невозможно. Будет ли так в будущем, мы не знаем, но в настоящем это продолжает оставаться фактом.

Соответственно, любые более серьезные решения, принимаемые на основе ИИ, несут в себе риск серьезных правовых, экономических и репутационных последствий. С этой точки зрения ИИ на данном этапе лучше всего использовать для улучшения процессов, а не для принятия решений. Например, было бы целесообразно использовать ИИ для автоматизации и облегчения поиска документов в базе данных.

С другой стороны, использование ИИ для подготовки адвокатами аргументов в суд привело к довольно большим проблемам и штрафам и пеням для адвокатов. Поэтому мой совет — использовать ИИ с умом и в качестве помощника в подавляющем большинстве случаев. В конечном счете, независимо от того, используется ИИ или нет, ответственность за решения лежит на людях.

Каждая новость – это актив, следите за Investor.bg и в Витрина новостей Google.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии