• Добро пожаловать в Пиратскую Бухту! Чтобы получить полный доступ к форуму пройдите регистрацию!
  • Гость, стой!

    В бухте очень не любят флуд и сообщения без смысловой нагрузки!
    Чтобы не получить бан, изучи правила форума!

    Если хотите поблагодарить автора темы, или оценить реплику пользователя, для этого есть кнопки: "Like" и "Дать на чай".

Новости Белый Дом выпустил конституцию для роботов

Пригоршня

Штурман
Бродяга
Регистрация
26.10.16
Сообщения
2,233
Онлайн
38д 4ч 33м
Сделки
251
Нарушения
0 / 0
Montserrat Semi-Bold.png

Белый Дом опубликовал Билль о правах искусственного интеллекта , который будет определять разработку, использование и развертывание автоматизированных систем в эпоху искусственного интеллекта. Предполагается, что использование ИИ регулируется 5-ю основными принципами:

1. Безопасность и эффективность систем.

Пользователи должны быть защищены от небезопасных или неэффективных систем. Безопасность этих систем должна быть подтверждена путем тестирования перед развертыванием, выявления и снижения рисков, а также постоянного мониторинга.

2. Защита от дискриминации со стороны алгоритмов.

Конструкция систем не должна позволять пользователям каким-либо образом сталкиваться с дискриминацией. В процессе проектирования системы должны пройти упреждающую оценку справедливости и независимое тестирование в будущем, а также должны быть доступны отчеты по тестам.

3. Конфиденциальность данных.

Встроенные средства защиты конфиденциальности должны защищать пользователей от неправомерных действий с данными, позволяя им решать, как использовать свои данные.

Разработчики систем искусственного интеллекта должны уважать выбор потребителей в отношении конфиденциальности и принимать их согласие только в тех случаях, когда оно может быть дано надлежащим образом и осмысленно.

4. Уведомление и объяснение.

Пользователи должны иметь четкое представление о том, как используется ИИ и как это повлияет на них. Производители должны предоставить простое, но всестороннее объяснение, написанное понятным языком, относительно описаний, влияния и потенциального использования ИИ. Также разработчики должны уведомлять пользователей о значимых событиях или изменениях.

5. Человеческие альтернативы и откат.

Пользователи должны иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно. Возможность выбрать человека в качестве альтернативы машине должна быть доступна каждому.

Далее в документе объясняются возможные сценарии, в которых эти принципы могут быть реализованы.

Билль также называет злонамеренное использование данных и технологий одной из «серьезных проблем демократии» и призывает применять принципы к любой автоматизированной системе, которая может «потенциально повлиять на права, возможности или доступ американской общественности к критически важным ресурсам или услугам».

Также в документе поясняется, что неконтролируемый сбор данных в социальных сетях используется для того, чтобы угрожать возможностям людей, подрывать их конфиденциальность или постоянно отслеживать их действия — часто без их ведома или согласия.
 

chernov23

Пират
Читатель
Регистрация
09.11.20
Сообщения
85
Онлайн
3д 4ч 36м
Сделки
0
Нарушения
1 / 1
Белый Дом опубликовал Билль о правах искусственного интеллекта , который будет определять разработку, использование и развертывание автоматизированных систем в эпоху искусственного интеллекта. Предполагается, что использование ИИ регулируется 5-ю основными принципами:

1. Безопасность и эффективность систем.

Пользователи должны быть защищены от небезопасных или неэффективных систем. Безопасность этих систем должна быть подтверждена путем тестирования перед развертыванием, выявления и снижения рисков, а также постоянного мониторинга.

2. Защита от дискриминации со стороны алгоритмов.

Конструкция систем не должна позволять пользователям каким-либо образом сталкиваться с дискриминацией. В процессе проектирования системы должны пройти упреждающую оценку справедливости и независимое тестирование в будущем, а также должны быть доступны отчеты по тестам.

3. Конфиденциальность данных.

Встроенные средства защиты конфиденциальности должны защищать пользователей от неправомерных действий с данными, позволяя им решать, как использовать свои данные.

Разработчики систем искусственного интеллекта должны уважать выбор потребителей в отношении конфиденциальности и принимать их согласие только в тех случаях, когда оно может быть дано надлежащим образом и осмысленно.

4. Уведомление и объяснение.

Пользователи должны иметь четкое представление о том, как используется ИИ и как это повлияет на них. Производители должны предоставить простое, но всестороннее объяснение, написанное понятным языком, относительно описаний, влияния и потенциального использования ИИ. Также разработчики должны уведомлять пользователей о значимых событиях или изменениях.

5. Человеческие альтернативы и откат.

Пользователи должны иметь возможность отказаться от автоматизированных систем в пользу человеческой альтернативы, где это уместно. Возможность выбрать человека в качестве альтернативы машине должна быть доступна каждому.

Далее в документе объясняются возможные сценарии, в которых эти принципы могут быть реализованы.

Билль также называет злонамеренное использование данных и технологий одной из «серьезных проблем демократии» и призывает применять принципы к любой автоматизированной системе, которая может «потенциально повлиять на права, возможности или доступ американской общественности к критически важным ресурсам или услугам».

Также в документе поясняется, что неконтролируемый сбор данных в социальных сетях используется для того, чтобы угрожать возможностям людей, подрывать их конфиденциальность или постоянно отслеживать их действия — часто без их ведома или согласия.
а вот теперь становится страшно возможно через 10-20 лет работать будут роботы вместо людей и как же это повлияет на нас людей ?)
 
Сверху