Наблюдатель за правосудием Китая

中 司 观察

Английскийарабском Китайский (упрощенное письмо)ГолландскийФранцузскийНемецкийХиндиИтальянскийЯпонскийКорейскийПортугальскийРусскийИспанскийШведскийдревнееврейскийИндонезийскийВьетнамскийТайскийТурецкийMalay

Как Китай учитывает подотчетность платформы при принятии алгоритмических решений?

Вс, 28 ноя 2021
Категории: Инсайты
Авторы: Годун Ду
Редактор: Шуай Хуан 黄 帅

аватар

 

Ключевые вынос:

  • Китайские законодатели осознали центральную роль алгоритмов в работе интернет-платформ и определили это как «автоматическое принятие решений» в Законе о защите личной информации (PIPL), принятом 20 августа 2021 года, который впервые регулирует эту технологию.
  • В соответствии с PIPL платформы должны оценивать влияние алгоритмов заранее и несут ответственность за результаты принятого решения впоследствии.
  • PIPL расширяет право знать пользователей платформы и требует, чтобы платформы разрушали «информационные коконы», создаваемые алгоритмическими персонализированными рекомендациями для пользователей.


Закон Китая о защите личной информации (个人 信息 保护 法), вступивший в силу в августе 2021 года, очерчивает границы для интернет-платформ, осуществляющих автоматизированное принятие решений с помощью алгоритмов.

Ⅰ. Фон

Китайские интернет-платформы, обычно TopBuzz и TikTok of ByteDance, широко используют алгоритмы рекомендаций для продвижения контента и продуктов для своих пользователей.

Однако такие алгоритмы, якобы нарушающие права пользователей на свободное принятие решений и, таким образом, создавая моральный риск, подвергаются сомнению со стороны общественности и регулирующих органов.

Китайские законодатели осознали центральную роль алгоритмов в работе таких платформ и определили это как «автоматическое принятие решений» в Законе о защите личной информации (далее «PIPL»), принятом 20 августа 2021 года, регулирующем эту технологию для первый раз.

В соответствии с PIPL автоматизированное принятие решений относится к действиям по автоматическому анализу и оценке поведенческих привычек, увлечений или финансового, медицинского и кредитного статуса людей с помощью компьютерных программ и принятия решений по этому поводу. (Статья 73)

До этого мнения по поводу ответственности платформ за автоматизированное принятие решений разделились. Например, некоторые люди считали, что платформы не должны нести ответственности за результаты своих автоматизированных алгоритмов принятия решений, которые, по сути, были своего рода нейтральной технологией. Однако PIPL разъясняет обратное.

Ⅱ. Ограничения на платформах

1. Регуляторы непосредственно проверяют алгоритмы.

В качестве обработчиков личной информации платформы должны регулярно проверять соответствие обработки личной информации законам и административным постановлениям. (Статья 54)

Это требует, чтобы платформы периодически проверяли свои алгоритмические автоматизированные процессы принятия решений и другие действия по обработке информации.

Согласно правилу, регулирующие органы могут также проводить внутренний аудит работы алгоритмов платформ вместо внешнего надзора только за действиями платформ и их последствиями.

Соответственно, регулирующие органы создают алгоритмы как объект прямого регулирования, который позволяет регулирующим органам вмешиваться в технологию и детали автоматизированного принятия решений.

2. Платформы заранее оценивают влияние алгоритмов. 

В качестве обработчиков личной информации платформы должны заранее проводить оценку воздействия на защиту личной информации и записывать обрабатываемую информацию, если они используют личную информацию для автоматического принятия решений. (Статья 55)

Оценка платформ должна охватывать следующее:

A. Являются ли цели, методы или любой другой аспект обработки личной информации законными, законными и необходимыми;

Б. Влияние на личные права и интересы и уровень риска; а также

C. Являются ли принятые меры защиты законными, эффективными и соизмеримыми с уровнем риска.

Соответственно, платформы должны провести предварительную оценку перед запуском алгоритмов автоматического принятия решений. Оценка риска включает законность и необходимость алгоритмического автоматизированного принятия решений, а также его влияние и риск.

Неправильное алгоритмическое автоматизированное принятие решений с платформ может нанести ущерб собственности и личным правам граждан, даже общественным интересам и национальной безопасности.

Следовательно, негативные последствия могут затронуть тысячи пользователей. В этот момент, даже если платформы привлечены к ответственности, может быть сложно восстановить уже нанесенный ущерб.

Чтобы предотвратить такую ​​ситуацию, закон устанавливает систему предварительной оценки алгоритмов платформ в попытке заранее вмешаться в алгоритмы.

3. Платформы несут ответственность за результаты принятого впоследствии решения.

Платформы принимают на себя следующие обязательства по результатам автоматизированного принятия решений (статья 24):

A. Платформы должны гарантировать, что результаты будут справедливыми и беспристрастными.

Если обработчики личной информации проводят автоматизированное принятие решений с использованием личной информации, они должны обеспечивать прозрачность принятия решений, справедливость и беспристрастность результатов и не должны предоставлять неоправданно дифференцированный подход к отдельным лицам с точки зрения цен транзакций или других условий транзакций.

B. Платформы должны предоставлять возможности автоматического принятия решений, не нацеленные на личные характеристики пользователей.

В тех случаях, когда доставка информации на основе push-уведомлений или коммерческий маркетинг отдельным лицам осуществляется посредством автоматизированного принятия решений, лицам одновременно должны предоставляться варианты, не ориентированные на личные характеристики людей или простые способы отказа от получения.

C. Платформы должны объяснять результаты принятия решений.

Если решение, которое оказывает существенное влияние на права и интересы человека, принимается посредством автоматизированного принятия решений, это лицо имеет право запросить у обработчика личной информации объяснения, а также право отказаться от принятия решения. решения обработчика персональной информации исключительно посредством автоматизированного принятия решений.

Правило возлагает ответственность на платформы за результаты автоматизированного принятия решений, в том числе:

A. Правило не признает защиту «технологической нейтральности», которая использовалась платформами. Платформы должны нести ответственность за результаты алгоритмического автоматизированного принятия решений и обеспечивать их справедливость и разумность.

Б. Правило расширяет право знать пользователей платформы. Пользователи могут запросить прозрачность результатов автоматизированного принятия решений, а также пояснения от платформ в случае «существенного воздействия».

C. Правило требует, чтобы платформы разрушали «информационные коконы», создаваемые алгоритмическими персонализированными рекомендациями для пользователей, и требует, чтобы платформы защищали право пользователей на информацию.

III. Наши комментарии

Китай совершил прорыв в PIPL, добавив правовые нормы для алгоритмов автоматического принятия решений платформами. Однако он все еще нуждается в доработке. Например, закон не разъясняет:

A. Условия для платформ, чтобы инициировать оценку алгоритма.

Б. будут ли и в какой степени обнародованы отчеты об оценке после того, как платформы оценят свои алгоритмы, и 

C. как платформы должны нести ответственность за ущерб, причиненный их автоматизированным алгоритмическим принятием решений.

Я предполагаю, что китайские регулирующие органы все еще изучают возможность принятия ряда конкретных правил для дальнейшего внедрения PIPL.

 

Фото Автопутешествие с Раджем on Unsplash

 

 

 

 

 

Авторы: Годун Ду

Сохранить как PDF

Соответствующие законы на портале законов Китая

Вас также может заинтересовать

Так говорили китайские судьи о признании и исполнении иностранных решений: мнение судей Верховного суда Китая о поправке 2023 года к Гражданскому процессуальному закону (4)

Гражданский процессуальный закон 2023 года вводит систематические положения, направленные на улучшение признания и исполнения иностранных судебных решений, содействие прозрачности, стандартизации и процессуальной справедливости, а также принятие гибридного подхода для определения косвенной юрисдикции и введение процедуры пересмотра в качестве средства правовой защиты.

Так говорили китайские судьи о получении доказательств за рубежом: мнение судей Верховного суда Китая о поправке к Гражданско-процессуальному закону 2023 года (3)

Гражданский процессуальный закон 2023 года вводит систематическую основу для сбора доказательств за рубежом, решая давние проблемы в гражданских и коммерческих судах, а также применяя инновационные методы, такие как использование устройств обмена мгновенными сообщениями, тем самым повышая эффективность и адаптируемость юридических процедур.

Так говорили китайские судьи о трансграничном процессуальном обслуживании: мнение судей Верховного суда Китая о поправке 2023 года к Гражданскому процессуальному закону (2)

В Гражданском процессуальном законе 2023 года принят проблемно-ориентированный подход, который устраняет трудности в обслуживании судебных дел по делам, связанным с иностранцами, путем расширения каналов и сокращения срока обслуживания по периоду публикации до 60 дней для сторон, не имеющих постоянного места жительства, что отражает более широкую инициативу по повышению эффективности. и адаптировать правовые процедуры к сложностям международных судебных разбирательств.

Так говорили китайские судьи о международной гражданской юрисдикции: мнение судей Верховного суда Китая о поправке к Гражданско-процессуальному закону 2023 года (1)

Мнения судей Верховного суда Китая о поправке к Гражданско-процессуальному закону 2023 года подчеркивают существенные изменения в правилах международного гражданского судопроизводства, включая расширение юрисдикции китайских судов, усиление согласованной юрисдикции и координацию международных юрисдикционных конфликтов.

Пекинский суд опубликовал отчет о нарушении личной информации граждан

Важнейший официальный документ, выпущенный Высшим народным судом Пекина в ноябре 2009 года, описывает эволюцию системы защиты данных в Китае от поправки к уголовному законодательству 2016 года до Закона о кибербезопасности 2021 года и Закона о защите личной информации 2023 года. строгие правила для сетевых операторов и защита личной информации граждан.

Китай издает рекомендации по исходящей передаче личной информации

В мае 2023 года Администрация киберпространства Китая (CAC) выпустила «Руководство по заполнению стандартных контрактов на исходящую передачу личной информации (первое издание)», в котором содержатся конкретные требования к методам, процедурам и материалам для подачи стандартных контрактов. для исходящей передачи личной информации.

Система опечатывания судимостей несовершеннолетних в Китае

В соответствии с китайским уголовным законодательством, если несовершеннолетний достиг 18-летнего возраста на момент совершения преступления и приговорен к пяти годам лишения свободы на определенный срок или к более легкому наказанию, соответствующие судимости подлежат опечатыванию для сохранения.