• Добро пожаловать в Пиратскую Бухту! Чтобы получить полный доступ к форуму пройдите регистрацию!
  • Гость, стой!

    В бухте очень не любят флуд и сообщения без смысловой нагрузки!
    Чтобы не получить бан, изучи правила форума!

    Если хотите поблагодарить автора темы, или оценить реплику пользователя, для этого есть кнопки: "Like" и "Дать на чай".

Новости Microsoft, GitHub и OpenAI просят суд отклонить иск об авторских правах на ИИ

Пригоршня

Штурман
Бродяга
Регистрация
26.10.16
Сообщения
2,233
Онлайн
38д 6ч 10м
Сделки
251
Нарушения
0 / 0
Montserrat Semi-Bold.png

Microsoft, GitHub и OpenAI обратились в суд США с запросом об отклонении иска, который обвиняет их в нарушении лицензий Open Source и требует компенсацию в $9 млрд за GitHub Copilot. Юристы Microsoft, GitHub и OpenAI утверждают, что обвинения в нарушении лицензий и требования компенсации не имеют основания.

Компании утверждают, что в иске нет доказательств нанесения ущерба и нет обоснования для претензий, включая примеры нарушений юридических прав. Microsoft, GitHub и OpenAI утверждают, что истцы опираются только на "гипотетические события", а GitHub Copilot им лично не причинил вреда.

Юристы компаний утверждают, что в иске не указаны конкретные авторские права, которые GitHub Copilot нарушил путем несанкционированного использования, или контракты и лицензии, нарушенные при создании инструмента искусственного интеллекта.

Microsoft заявляет, что обвинения в нарушении авторских прав необоснованны и противоречат доктрине добросовестного использования, которая позволяет использовать защищенные авторским правом материалы в определенных ситуациях. Microsoft и GitHub ссылаются на решение Верховного суда США 2021 года, которое подтверждает, что использование исходного кода Oracle компанией Google для создания операционной системы Android является добросовестным использованием.

Как утверждают Microsoft и GitHub, Copilot не удаляет ничего из общедоступного открытого исходного кода, а лишь помогает разработчикам писать код, предлагая варианты, основанные на информации, которую инструмент получил из общедоступного кода.

IT-компании через своих юристов в ответной заявлении в суде заявили, что истцы подрывают принципы открытого исходного кода, потребовав судебный запрет и компенсацию в миллиарды за открытое ПО. Судебное разбирательство по иску против GitHub Copilot запланировано на май.

Напомню, в начале ноября 2022, Мэтью Баттерик, программист-юрист, подал в суд в Калифорнии на Microsoft, GitHub и OpenAI года из-за нарушения лицензий Open Source проектов и ущемления прав программистов на нейросетевой помощник GitHub Copilot. Разработчик требует $9 млрд в качестве компенсации от американских компаний.

GitHub Copilot в настоящее время использует миллионы строк кода из общедоступных репозиториев GitHub для генерации кода, и может переводить естественный язык в код на десятках языков программирования. Нейропомощник выполняет эту работу автоматически, не анализируя и не учитывая правила лицензирования проектов с открытым исходным кодом, таких как GPL, Apache или MIT, которые требуют указания авторства и определения конкретных авторских прав при использовании кода.

Microsoft, GitHub и OpenAI приняли меры предосторожности при разработке Copilot. Инструмент был настроен на удаление любой ссылки на лицензии Open Source из генерируемого кода, даже если он копирует код сниппетов длиннее 150 символов из определенного репозитория. Система не указывает авторство исходного фрагмента кода.

Разработчик Баттерик предполагает, что каждый раз, когда Copilot выдаёт фактически незаконный результат, то этот нейросетевой инструмент нарушает закон DMCA трижды, распространяя материалы с лицензией без указания авторства, уведомления об авторских правах и условий лицензии. Разработчик считает, что за 15 месяцев работы Copilot, Microsoft, GitHub и OpenAI около 3,6 млн раз нарушили законы США и нанесли ущерб сообществу Open Source в размере 9 млрд долларов США.

Баттерик беспокоится, что в дальнейшем Copilot может привести к деградации сообщества Open Source, и как следствие этого, качество кода, используемого в обучающих данных системы, которая не способна создавать код самостоятельно, будет снижаться.
 
Сверху