Этика и ИИ

Существует множество этических соображений при использовании инструментов ИИ и создании нового контента. Кому принадлежит результат, особенно если он создан под сильным влиянием материала, защищенного авторским правом, или напрямую скопирован с него? Как мы думаем о человеческой предвзятости, когда речь идет о данных, анализируемых с помощью больших языковых моделей (LLM)?

Как веб-практикам, нам очень важно создавать новые технологии вдумчиво и ответственно. Во всем мире предпринимаются многочисленные попытки ответить на эти (и многие другие) вопросы. Мы не можем охватить все проблемы, но мы можем начать диалог о том, как вы думаете об этике при использовании ИИ.

Вот некоторые ключевые области, которые следует учитывать при использовании и создании инструментов искусственного интеллекта:

  • Право собственности на контент и авторские права . Авторское право – это юридическая защита оригинальных авторских произведений. Законодательство в разных странах разное, и во многих странах ведутся споры о том, что происходит с контентом, созданным ИИ. Всякий раз, когда вы публикуете контент, вы должны знать ответ на следующий вопрос: Нарушаете ли вы чужой контент, защищенный авторским правом? Это может оказаться сложнее, чем вы ожидаете ответить!
  • Предвзятость и дискриминация . Компьютеры и алгоритмы создаются людьми, обучаются на данных, которые могут быть собраны людьми, и поэтому подвержены человеческим предубеждениям и вредным стереотипам. Это напрямую влияет на результат.
  • Конфиденциальность и безопасность . Это важно для всех веб-сайтов и веб-приложений, но особенно, когда имеется конфиденциальная или личная информация. Предоставление пользовательских данных большему количеству третьих лиц с помощью облачных API является проблемой. Важно, чтобы любая передача данных была безопасной и постоянно контролировалась.

Принципы искусственного интеллекта Google

Мы стремимся ответственно подходить к разработке технологий и создавать конкретные области ИИ, которыми мы не будем заниматься. Фактически, Google придерживается нескольких принципов искусственного интеллекта , а центральная команда занимается управлением и реализацией.

Короче говоря, наши цели в области приложений ИИ заключаются в следующем:

  1. Будьте социально полезными.
  2. Избегайте создания или усиления несправедливой предвзятости.
  3. Будьте построены и проверены на безопасность.
  4. Будьте подотчетны людям.
  5. Включите принципы проектирования конфиденциальности.
  6. Поддерживать высокие стандарты научного совершенства.
  7. Быть доступным для использования в соответствии с этими принципами.

Хотя мы, веб-разработчики, не всегда можем нести ответственность за создание моделей и сбор наборов данных для обучения инструментов ИИ, мы несем ответственность за то, какие инструменты мы используем и какие конечные продукты мы создаем с помощью ИИ.

Организации в Интернете думают об этике

Существует ряд некоммерческих, неправительственных организаций (НПО) и других компаний, которые сосредоточили свою работу и исследования на создании этического ИИ.

Вот несколько примеров.

В этой области предстоит еще много работы, и еще много соображений, которые еще предстоит обнаружить. Мы намерены тщательно учитывать этические соображения при создании каждого фрагмента контента.