banner

Блог

Oct 23, 2023

Логический ИИ: тестирование и мониторинг моделей ИИ, используемых для противодействия дезинформации в Интернете.

Практический пример от Logically AI.

В этом тематическом исследовании основное внимание уделяется использованию ИИ для масштабного обнаружения дезинформации в Интернете.

В этом тематическом исследовании мы излагаем наши подходы и принципы создания надежных систем искусственного интеллекта для обнаружения дезинформации в Интернете. Логически использует структуру искусственного интеллекта «Человек в цикле» под названием HAMLET (Оценка и обучение людей и машин в цикле), чтобы обеспечить разработку надежных и ответственных технологий искусственного интеллекта.

Эта структура позволяет машинам и экспертам работать вместе для разработки систем искусственного интеллекта с большей надежностью, включая надежность, обобщаемость, объяснимость, прозрачность, справедливость, сохранение конфиденциальности и подотчетность. Наш подход к заслуживающему доверия ИИ учитывает весь жизненный цикл систем ИИ, начиная от обработки данных и разработки моделей, разработки и развертывания системы и, наконец, до непрерывного мониторинга и управления. HAMLET решает различные проблемы на уровне данных и модели, чтобы разработать эффективные решения ИИ для проблем информационной онлайн-среды. Платформа позволяет собирать аннотации к экспертным данным, отзывы экспертов, мониторинг производительности системы искусственного интеллекта и управление жизненным циклом.

Управление качеством данных позволяет эффективно устранять выбросы, аномалии и несоответствия данных. Обработка предвзятости на уровне данных имеет решающее значение для устранения зашумленных закономерностей и моделей, которые дают ложную информацию.

Мониторинг производительности моделей искусственного интеллекта и управление жизненным циклом также имеют решающее значение для борьбы с динамичным характером информационной онлайн-среды. Модели ИИ представляют собой уникальные программные объекты по сравнению с традиционным кодом, и их производительность может меняться со временем из-за изменений во входных данных в модель после развертывания. После развертывания модели ее необходимо отслеживать, чтобы убедиться, что она работает должным образом. Поэтому для снижения нормативных, репутационных и операционных рисков необходимы инструменты, которые могут тестировать и отслеживать модели, чтобы обеспечить их наилучшую производительность. Основными понятиями, которые следует контролировать, являются следующие:

Чтобы отслеживать эти риски, HAMLET использует автоматизацию и лучшие отраслевые практики в области операций машинного обучения (MLops) для разработки и реализации рабочих процессов для автоматического обнаружения снижения производительности модели.

Установление благонадежности является динамичной процедурой. Постоянное повышение надежности ИИ требует сочетания ручных и автоматизированных рабочих процессов, основанных на концептуальных основах и принципах. MLOps обеспечивает отправную точку для построения рабочего процесса для создания надежного ИИ. Интегрируя жизненный цикл машинного обучения, MLOps объединяет исследования, эксперименты и разработку продуктов, позволяя быстро использовать теоретические разработки надежного искусственного интеллекта. Он содержит следующие свойства, включенные в нашу структуру HAMLET:

Дополнительная информация о принципах регулирования искусственного интеллекта.

Наш подход соответствует принципам безопасности, защищенности и надежности, поскольку он позволяет разрабатывать технологии искусственного интеллекта с использованием лучших практик в области управления безопасностью данных, управления рисками на уровне данных и управления угрозами. Более того, наш подход способствует принятию отраслевых стандартов ответственного и заслуживающего доверия искусственного интеллекта. Это не только обеспечивает безопасную и ответственную разработку технологий искусственного интеллекта, но и повышает их устойчивость к состязательным атакам.

Наш подход соответствует принципам прозрачности и объяснимости, поскольку позволяет нам разрабатывать модели и системы ИИ, соответствующие отраслевым стандартам справедливости, подотчетности, надежности и объяснимости. Это обеспечивает большую прозрачность, а также гибкость использования и совместной разработки приложений.

Наш подход соответствует принципам справедливости, поскольку он позволяет нам разрабатывать надежный и зрелый набор технологий искусственного интеллекта для разработки коммерческих продуктов и услуг, которые противодействуют ложной/дезинформации в масштабе, отвечающем удовлетворению и доверию пользователей. Мы прямо признаем риск предвзятости, который влияет на наши процессы сбора наборов данных и привлечения междисциплинарных групп и означает, что наш подход активно направлен на предотвращение получения дискриминационных результатов.

ДЕЛИТЬСЯ