Какие вызывает опасения
Несмотря на все преимущества, внедрение Copilot также вызывает много вопросов. В частности, касательно авторских прав на программное обеспечение, лицензирования и эффективности обучения ИИ-модели на фрагментах кода, которые, несомненно, содержат ошибки.
В целом, исследователи считают законным использовать публичные наборы данных для обучения ИИ-моделей. Однако ситуация усложняется, когда эти наборы применяется при создании коммерческих продуктов.
- Разрешительные opensource-лицензии, такие как Apache 2.0, позволяют каждому делать с кодом что угодно.
- Другие требуют раскрытия информации о внесенных изменениях.
- А лицензии нового поколения и вовсе накладывают ограничения на то, как третьи стороны могут использовать публично доступный код при создании облачных сервисов.
В разделе часто задаваемых вопросов об этике ИИ GitHub открыто
признает: «В мировом публичном доступе размещено много кода с ненадежными шаблонами, ошибками и ссылками на устаревшие API и идиомы. Синтезируя предложения на основе этих данных, Copilot также может создать код, содержащий эти нежелательные шаблоны».
В своей публикации на Hacker News CEO GitHub Нат Фридман
признал, что Copilot вызовет споры в некоторых областях: «Мы ожидаем, что в ближайшие годы интеллектуальная собственность и ИИ станут предметом интересных политических дискуссий по всему миру, и мы готовы принять в этом участие».