Открытый ИИОткрытый или закрытый ИИ

За последний год доступность Genative AI (GenAI) для бизнеса захватила рынок, обеспечив значительный рост производительности. Однако, чтобы успешно воспользоваться этой возможностью, компании должны убедиться, что они инвестируют в правильные решения.

Столкнувшись с такими вариантами, как коммерческие услуги искусственного интеллекта и настраиваемые модели большого языка с открытым исходным кодом (LLM), лидеры бизнеса должны ориентироваться в сложной среде рисков и выгод. Этот выбор, на который влияют такие факторы, как скорость выхода на рынок и безопасность данных, имеет решающее значение для компаний, стремящихся стратегически инвестировать в GenAI.

Коммерческий ИИ против открытого исходного кода: взвешиваем варианты

Коммерческие сервисы GenAI, известные своей простотой интеграции, предоставляют компаниям простой способ внедрения ИИ. Эти платформы предназначены для немедленного использования, что исключает необходимость обширной установки или выделения ресурсов. Они готовы к работе на предприятиях, имеют надежные функции безопасности и часто соответствуют требованиям к данным. Однако существуют опасения по поводу того, как эти службы обрабатывают конфиденциальные данные, поскольку существует риск использования служебной информации в их обучающих наборах. Кроме того, проблемы создают ограничения в фильтрации контента и возможность менее точных ответов ИИ. Например, Изучение на ChatGPT показал, что может правильно ответить на 16 из 21 вопроса, но ответы, как правило, были более приблизительными, чем у человека.

Напротив, программы LLM с открытым исходным кодом, такие как Мистраль, ЦВЕСТИ И ГПТ-J предлагают уникальное преимущество: индивидуализацию. Они позволяют компаниям адаптировать модели ИИ к своим конкретным требованиям, что приводит к более точным и актуальным результатам. Эти модели позволяют компаниям разрабатывать свои инструменты искусственного интеллекта для различных задач и обеспечивать повышенную безопасность за счет настраиваемых элементов управления. Поэтому компании должны быть осторожны при вводе данных, чтобы избежать ошибок в обучении ИИ. В целом, LLM требует большего с точки зрения операционных инвестиций и специальных навыков для эффективного управления, поэтому компаниям следует учитывать свой бюджет и ресурсы, когда думают о внедрении LLM.

Выбор между этими двумя вариантами зависит от нескольких факторов, включая конфиденциальность данных, стоимость и степень контроля, который компания хочет осуществлять над своими системами искусственного интеллекта. Принятие этого решения становится еще более актуальным в свете недавней ситуации. Исследование McKinsey показывая, что 40 процентов топ-менеджеров ожидают увеличения инвестиций в GenAI к 2024 году. Эта тенденция подчеркивает настоятельную необходимость для компаний стратегической оценки своих инвестиций в ИИ и обеспечения их соответствия конфиденциальности данных, затратам и предпочтениям в области контроля.

Понимание рисков безопасности

Коммерческие службы искусственного интеллекта, такие как системы GenAI, обеспечивают надежную систему безопасности, но не гарантируют автоматически защиту конфиденциальных данных вызовов. Помимо защиты интеллектуальной собственности, компании должны проявлять бдительность в отношении передовых киберугроз, использующих технологии искусственного интеллекта. Компании должны быть готовы к тому, что злоумышленники могут использовать системы GenAI для кибератак и мошенничества. Одной из особенно тревожных тактик является «быстрое внедрение», когда хакеры манипулируют искусственным интеллектом, таким как ChatGPT, для раскрытия конфиденциальной информации. Крайне важно, чтобы компании консультировались со своими киберстраховщиками, чтобы определить, в какой степени нарушения, связанные с ИИ, покрываются их текущими полисами. Внедрение комплексных мер безопасности и понимание страхового покрытия являются важнейшими шагами в защите от уязвимостей, используемых ИИ.

И наоборот, модели искусственного интеллекта с открытым исходным кодом, в которых отсутствует встроенная комплексная безопасность, требуют от компаний создания собственной надежной защиты, включая меры против атак с быстрым внедрением, а также настраиваемые политики доступа и аутентификации.

Юридические и нормативные аспекты

При выборе решения искусственного интеллекта решающее значение имеет соблюдение нормативных требований. Коммерческие услуги искусственного интеллекта должны соответствовать международным законам о данных, например, требованиям Microsoft. Закон ЕС о резидентстве данных требуют, чтобы данные граждан ЕС хранились на территории ЕС. Это крайне важно для компаний, имеющих европейские связи. Кроме того, использование этих услуг предполагает понимание договорных деталей, касающихся ответственности за утечку данных и работы с контентом, созданным ИИ. Проблемы конфиденциальности и риски утечки данных заслуживают внимания, что подчеркивается такими примерами, как юридические действия против OpenAI за предполагаемое несанкционированное использование контента при обучении своих моделей.

С другой стороны, ИИ с открытым исходным кодом перекладывает ответственность за соблюдение нормативных требований на пользователя. Это включает в себя соблюдение законов об авторском праве и соблюдение различных глобальных правил в области искусственного интеллекта. Компании, использующие эти решения, должны проявлять бдительность и регулярно консультироваться с экспертами по правовым вопросам, чтобы ориентироваться в меняющемся правовом ландшафте ИИ, особенно при работе на международном уровне, чтобы обеспечить постоянное соблюдение требований и минимизировать юридические риски.

Рекомендации по сбалансированному подходу

Для преодоления сложностей этих вариантов требуется принятие стратегических решений, соответствующих операционным требованиям компании, системе безопасности и обязательствам по соблюдению требований. LLM с открытым исходным кодом обеспечивают обширный контроль и настройку, но требуют значительных инвестиций во внутреннюю инфраструктуру и квалифицированный персонал для обеспечения безопасности и управления. И наоборот, коммерческие решения искусственного интеллекта, такие как служба Microsoft Azure OpenAI, рекомендуются, если компания хочет сосредоточиться на безопасности и соблюдении нормативных требований. Однако они должны быть дополнены дополнительными средствами внутреннего контроля, включая индивидуальную фильтрацию контента и стратегии управления точностью.

Крайне важно, что реализация обоих решений требует интеграции систем фильтрации контента, которые соответствуют корпоративной политике и нормативным требованиям для обеспечения соответствия и управления потенциальными рисками. Многоуровневые протоколы безопасности, основанные на классификации данных и доступе на основе ролей, необходимы для адаптации мер безопасности к выбранному решению ИИ.

Организации, стремящиеся интегрировать ИИ в свои рабочие процессы, должны идти в ногу с нормативно-правовой базой. Продолжающееся сотрудничество с юристами для обеспечения соответствия современным требованиям и снижения рисков имеет решающее значение, особенно в условиях быстрого технического прогресса и развития нормативных актов, пытающихся идти в ногу со временем.

Поскольку организации все чаще внедряют генеративный искусственный интеллект, выбор между коммерческими моделями и моделями с открытым исходным кодом становится непростой задачей. Организации должны тщательно оценивать свои приоритеты при выборе решений ИИ. Помимо убедительных соображений безопасности и соответствия нормативным требованиям, крайне важно оценить точность, адаптируемость и экономическую эффективность этих технологий. Согласование выбора ИИ с операционными целями предполагает сбалансированное рассмотрение этих ключевых факторов, гарантируя, что выбранные системы не только соответствуют нормативным стандартам, но также отвечают конкретным потребностям и бюджетным ограничениям бизнеса. Навигация в этом пространстве требует стратегического подхода, который наилучшим образом соответствует потребностям каждого отдельного бизнеса.

Доктор Джон Причард — директор по продукту в Сияющая логика.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

error: Content is protected !!