Наблюдатель за правосудием Китая

中 司 观察

Английскийарабском Китайский (упрощенное письмо)DutchФранцузскийНемецкийХиндиИтальянскийЯпонскийKoreanПортугальскийРусскийИспанскийSwedishдревнееврейскийIndonesianвьетнамскийThaiТурецкийMalay

Как Китай учитывает подотчетность платформы при принятии алгоритмических решений?

Вс, 28 ноя 2021
Категории: Инсайты
Авторы: Годун Ду
Редактор: Шуай Хуан 黄 帅

аватар

 

Ключевые вынос:

  • Китайские законодатели осознали центральную роль алгоритмов в работе интернет-платформ и определили это как «автоматическое принятие решений» в Законе о защите личной информации (PIPL), принятом 20 августа 2021 года, который впервые регулирует эту технологию.
  • В соответствии с PIPL платформы должны оценивать влияние алгоритмов заранее и несут ответственность за результаты принятого решения впоследствии.
  • PIPL расширяет право знать пользователей платформы и требует, чтобы платформы разрушали «информационные коконы», создаваемые алгоритмическими персонализированными рекомендациями для пользователей.


Закон Китая о защите личной информации (个人 信息 保护 法), вступивший в силу в августе 2021 года, очерчивает границы для интернет-платформ, осуществляющих автоматизированное принятие решений с помощью алгоритмов.

Ⅰ. Фон

Китайские интернет-платформы, обычно TopBuzz и TikTok of ByteDance, широко используют алгоритмы рекомендаций для продвижения контента и продуктов для своих пользователей.

Однако такие алгоритмы, якобы нарушающие права пользователей на свободное принятие решений и, таким образом, создавая моральный риск, подвергаются сомнению со стороны общественности и регулирующих органов.

Китайские законодатели осознали центральную роль алгоритмов в работе таких платформ и определили это как «автоматическое принятие решений» в Законе о защите личной информации (далее «PIPL»), принятом 20 августа 2021 года, регулирующем эту технологию для первый раз.

В соответствии с PIPL автоматизированное принятие решений относится к действиям по автоматическому анализу и оценке поведенческих привычек, увлечений или финансового, медицинского и кредитного статуса людей с помощью компьютерных программ и принятия решений по этому поводу. (Статья 73)

До этого мнения по поводу ответственности платформ за автоматизированное принятие решений разделились. Например, некоторые люди считали, что платформы не должны нести ответственности за результаты своих автоматизированных алгоритмов принятия решений, которые, по сути, были своего рода нейтральной технологией. Однако PIPL разъясняет обратное.

Ⅱ. Ограничения на платформах

1. Регуляторы непосредственно проверяют алгоритмы.

В качестве обработчиков личной информации платформы должны регулярно проверять соответствие обработки личной информации законам и административным постановлениям. (Статья 54)

Это требует, чтобы платформы периодически проверяли свои алгоритмические автоматизированные процессы принятия решений и другие действия по обработке информации.

Согласно правилу, регулирующие органы могут также проводить внутренний аудит работы алгоритмов платформ вместо внешнего надзора только за действиями платформ и их последствиями.

Соответственно, регулирующие органы создают алгоритмы как объект прямого регулирования, который позволяет регулирующим органам вмешиваться в технологию и детали автоматизированного принятия решений.

2. Платформы заранее оценивают влияние алгоритмов. 

В качестве обработчиков личной информации платформы должны заранее проводить оценку воздействия на защиту личной информации и записывать обрабатываемую информацию, если они используют личную информацию для автоматического принятия решений. (Статья 55)

Оценка платформ должна охватывать следующее:

A. Являются ли цели, методы или любой другой аспект обработки личной информации законными, законными и необходимыми;

Б. Влияние на личные права и интересы и уровень риска; а также

C. Являются ли принятые меры защиты законными, эффективными и соизмеримыми с уровнем риска.

Соответственно, платформы должны провести предварительную оценку перед запуском алгоритмов автоматического принятия решений. Оценка риска включает законность и необходимость алгоритмического автоматизированного принятия решений, а также его влияние и риск.

Неправильное алгоритмическое автоматизированное принятие решений с платформ может нанести ущерб собственности и личным правам граждан, даже общественным интересам и национальной безопасности.

Следовательно, негативные последствия могут затронуть тысячи пользователей. В этот момент, даже если платформы привлечены к ответственности, может быть сложно восстановить уже нанесенный ущерб.

Чтобы предотвратить такую ​​ситуацию, закон устанавливает систему предварительной оценки алгоритмов платформ в попытке заранее вмешаться в алгоритмы.

3. Платформы несут ответственность за результаты принятого впоследствии решения.

Платформы принимают на себя следующие обязательства по результатам автоматизированного принятия решений (статья 24):

A. Платформы должны гарантировать, что результаты будут справедливыми и беспристрастными.

Если обработчики личной информации проводят автоматизированное принятие решений с использованием личной информации, они должны обеспечивать прозрачность принятия решений, справедливость и беспристрастность результатов и не должны предоставлять неоправданно дифференцированный подход к отдельным лицам с точки зрения цен транзакций или других условий транзакций.

B. Платформы должны предоставлять возможности автоматического принятия решений, не нацеленные на личные характеристики пользователей.

В тех случаях, когда доставка информации на основе push-уведомлений или коммерческий маркетинг отдельным лицам осуществляется посредством автоматизированного принятия решений, лицам одновременно должны предоставляться варианты, не ориентированные на личные характеристики людей или простые способы отказа от получения.

C. Платформы должны объяснять результаты принятия решений.

Если решение, которое оказывает существенное влияние на права и интересы человека, принимается посредством автоматизированного принятия решений, это лицо имеет право запросить у обработчика личной информации объяснения, а также право отказаться от принятия решения. решения обработчика персональной информации исключительно посредством автоматизированного принятия решений.

Правило возлагает ответственность на платформы за результаты автоматизированного принятия решений, в том числе:

A. Правило не признает защиту «технологической нейтральности», которая использовалась платформами. Платформы должны нести ответственность за результаты алгоритмического автоматизированного принятия решений и обеспечивать их справедливость и разумность.

Б. Правило расширяет право знать пользователей платформы. Пользователи могут запросить прозрачность результатов автоматизированного принятия решений, а также пояснения от платформ в случае «существенного воздействия».

C. Правило требует, чтобы платформы разрушали «информационные коконы», создаваемые алгоритмическими персонализированными рекомендациями для пользователей, и требует, чтобы платформы защищали право пользователей на информацию.

III. Наши комментарии

Китай совершил прорыв в PIPL, добавив правовые нормы для алгоритмов автоматического принятия решений платформами. Однако он все еще нуждается в доработке. Например, закон не разъясняет:

A. Условия для платформ, чтобы инициировать оценку алгоритма.

Б. будут ли и в какой степени обнародованы отчеты об оценке после того, как платформы оценят свои алгоритмы, и 

C. как платформы должны нести ответственность за ущерб, причиненный их автоматизированным алгоритмическим принятием решений.

Я предполагаю, что китайские регулирующие органы все еще изучают возможность принятия ряда конкретных правил для дальнейшего внедрения PIPL.

 

Фото Автопутешествие с Раджем on Unsplash

 

 

 

 

 

Авторы: Годун Ду

Сохранить как PDF

Соответствующие законы на портале законов Китая

Вас также может заинтересовать

Как китайская полиция и прокуратура собирают электронные данные по уголовным делам?

Изъятие электронных запоминающих устройств и извлечение электронных данных являются двумя установленными законом методами. Следует также отметить, что при сборе электронных данных, находящихся в Китае, и тех, которые находятся за пределами Китая, применяются разные подходы.

Как Китай учитывает подотчетность платформы при принятии алгоритмических решений?

Закон Китая о защите личной информации (个人 信息 保护 法), принятый в августе 2021 года, устанавливает границы для интернет-платформ, осуществляющих автоматизированное принятие решений с помощью алгоритмов.

Пример из практики: административное наказание в виде распознавания лиц

Исследование более 400 случаев административного наказания проливает свет на текущее отношение китайского правительства к распознаванию лиц и дает сценарий для оценки того, как будет применяться китайский Закон о защите личной информации, если такие случаи произойдут сегодня.

Что говорится в китайском законе о правовой помощи?

Что такое дежурный юрист? Кто будет оказывать юридическую помощь? Какие юридические услуги могут быть предоставлены? Вот ключевые вопросы, на которые нужно ответить, чтобы узнать Закон Китая о юридической помощи.

Закон Китая о безопасности труда (2021 г.)

Закон о безопасности труда (安全 生产 法) был обнародован 29 июня 2002 года, и в него были внесены поправки в 2009, 2014 и 2021 годах соответственно. Последняя редакция вступила в силу 1 сентября 2021 года.

Положения по ряду вопросов, касающихся применения закона при рассмотрении гражданских дел, связанных с использованием технологий распознавания лиц для обработки личной информации (2021 г.)

Положения Верховного народного суда по некоторым вопросам применения закона при рассмотрении гражданских дел, связанных с использованием технологий распознавания лиц для обработки личной информации (最高人民法院 关于 审理 使用 人脸识别 技术 处理 个人 信息 相关 民事案件 适用 法律若干 问题 的 规定) были обнародованы 27 июля 2021 г. и вступили в силу 1 августа 2021 г.