Существует множество этических соображений при использовании инструментов ИИ и создании нового контента. Кому принадлежит результат, особенно если он создан под сильным влиянием материала, защищенного авторским правом, или напрямую скопирован с него? Как мы думаем о человеческой предвзятости, когда речь идет о данных, анализируемых с помощью больших языковых моделей (LLM)?
Как веб-практикам, нам очень важно создавать новые технологии вдумчиво и ответственно. Во всем мире предпринимаются многочисленные попытки ответить на эти (и многие другие) вопросы. Мы не можем охватить все проблемы, но мы можем начать диалог о том, как вы думаете об этике при использовании ИИ.
Вот некоторые ключевые области, которые следует учитывать при использовании и создании инструментов искусственного интеллекта:
- Право собственности на контент и авторские права . Авторское право – это юридическая защита оригинальных авторских произведений. Законодательство в разных странах разное, и во многих странах ведутся споры о том, что происходит с контентом, созданным ИИ. Всякий раз, когда вы публикуете контент, вы должны знать ответ на следующий вопрос: Нарушаете ли вы чужой контент, защищенный авторским правом? Это может оказаться сложнее, чем вы ожидаете ответить!
- Предвзятость и дискриминация . Компьютеры и алгоритмы создаются людьми, обучаются на данных, которые могут быть собраны людьми, и поэтому подвержены человеческим предубеждениям и вредным стереотипам. Это напрямую влияет на результат.
- Конфиденциальность и безопасность . Это важно для всех веб-сайтов и веб-приложений, но особенно, когда имеется конфиденциальная или личная информация. Предоставление пользовательских данных большему количеству третьих лиц с помощью облачных API является проблемой. Важно, чтобы любая передача данных была безопасной и постоянно контролировалась.
Принципы искусственного интеллекта Google
Мы стремимся ответственно подходить к разработке технологий и создавать конкретные области ИИ, которыми мы не будем заниматься. Фактически, Google придерживается нескольких принципов искусственного интеллекта , а центральная команда занимается управлением и реализацией.
Короче говоря, наши цели в области приложений ИИ заключаются в следующем:
- Будьте социально полезными.
- Избегайте создания или усиления несправедливой предвзятости.
- Будьте построены и проверены на безопасность.
- Будьте подотчетны людям.
- Включите принципы проектирования конфиденциальности.
- Поддерживать высокие стандарты научного совершенства.
- Быть доступным для использования в соответствии с этими принципами.
Хотя мы, веб-разработчики, не всегда можем нести ответственность за создание моделей и сбор наборов данных для обучения инструментов ИИ, мы несем ответственность за то, какие инструменты мы используем и какие конечные продукты мы создаем с помощью ИИ.
Организации в Интернете думают об этике
Существует ряд некоммерческих, неправительственных организаций (НПО) и других компаний, которые сосредоточили свою работу и исследования на создании этического ИИ.
Вот несколько примеров.
- Для человечества
- Центр искусственного интеллекта и цифровой политики
- Рабочая группа W3C
- Инструменты авторства и искусственного интеллекта | COPE: Комитет по публикационной этике
В этой области предстоит еще много работы, и еще много соображений, которые еще предстоит обнаружить. Мы намерены тщательно учитывать этические соображения при создании каждого фрагмента контента.