Puntos clave:
- Los legisladores chinos se han dado cuenta del papel central de los algoritmos en el funcionamiento de las plataformas de Internet y lo definieron como "toma de decisiones automatizada" en la Ley de Protección de Información Personal (PIPL) promulgada el 20 de agosto de 2021, que regula esta tecnología por primera vez.
- En el marco de la PIPL, las plataformas evaluarán el impacto de los algoritmos por adelantado y serán responsables de los resultados de la toma de decisiones posteriormente.
- El PIPL amplía el derecho a saber de los usuarios de la plataforma y requiere que las plataformas rompan los "capullos de información" creados por recomendaciones algorítmicas personalizadas a los usuarios.
Ley de protección de la información personal de China (个人 信息 保护 法), promulgada en agosto de 2021, establece los límites para las plataformas de Internet que llevan a cabo una toma de decisiones automatizada a través de algoritmos.
Ⅰ. Fondo
Las plataformas de Internet chinas, típicamente TopBuzz y TikTok de ByteDance, utilizan ampliamente algoritmos de recomendación para enviar contenido y productos a sus usuarios.
Sin embargo, tales algoritmos, que supuestamente han interferido con los derechos de los usuarios a tomar decisiones libres y, por lo tanto, han creado un riesgo moral, son cuestionados por el público y los reguladores.
Los legisladores chinos se han dado cuenta del papel central de los algoritmos en el funcionamiento de tales plataformas y lo definieron como "toma de decisiones automatizada" en la Ley de Protección de Información Personal (en adelante, 'la PIPL') promulgada el 20 de agosto de 2021, que regula esta tecnología para el primera vez.
De acuerdo con la PIPL, la toma de decisiones automatizada se refiere a las actividades de analizar y evaluar automáticamente los hábitos de comportamiento, los pasatiempos o el estado financiero, de salud y crediticio de las personas a través de programas informáticos y la toma de decisiones al respecto. (Artículo 73)
Antes de eso, había opiniones divididas sobre la responsabilidad de las plataformas por la toma de decisiones automatizada. Por ejemplo, algunas personas creían que las plataformas no deberían ser responsables de los resultados de sus algoritmos automatizados de toma de decisiones, que eran esencialmente un tipo de tecnología neutral. Sin embargo, el PIPL aclara lo contrario.
Ⅱ. Restricciones en plataformas
1. Los reguladores revisan directamente los algoritmos
Como procesadores de información personal, las plataformas deben auditar el cumplimiento de su procesamiento de información personal con las leyes y regulaciones administrativas de manera regular. (Artículo 54)
Esto requiere que las plataformas auditen periódicamente su toma de decisiones algorítmica automatizada y otras actividades de procesamiento de información.
De acuerdo con la regla, los reguladores también pueden realizar auditorías internas sobre el funcionamiento de los algoritmos de las plataformas, en lugar de supervisar externamente los actos de las plataformas y las consecuencias únicamente.
En consecuencia, los reguladores hacen de los algoritmos el objeto regulador directo, lo que permite a los reguladores intervenir en la tecnología y los detalles de la toma de decisiones automatizada.
2. Las plataformas evalúan el impacto de los algoritmos de antemano
Como procesadores de información personal, las plataformas deben realizar una evaluación del impacto de la protección de la información personal con anticipación y registrar la información de procesamiento si utilizan información personal para la toma de decisiones automatizada. (Artículo 55)
La evaluación por plataformas cubrirá lo siguiente:
A. Si los propósitos, métodos o cualquier otro aspecto del procesamiento de información personal son legales, legítimos y necesarios;
B. El impacto en los derechos e intereses personales y el nivel de riesgo; y
C. Si las medidas de protección de seguridad adoptadas son lícitas, eficaces y acordes con el nivel de riesgo.
En consecuencia, las plataformas deberán realizar una evaluación previa antes de que se pongan en funcionamiento los algoritmos de toma de decisiones automatizada. La evaluación de riesgos incluye la legitimidad y necesidad de la toma de decisiones algorítmica automatizada, así como su impacto y riesgo.
La toma de decisiones algorítmica automatizada defectuosa desde las plataformas puede dañar la propiedad y los derechos personales de los ciudadanos, incluso los intereses públicos y la seguridad nacional.
Por tanto, las consecuencias negativas pueden afectar a miles de usuarios. En ese momento, a pesar de que las plataformas deben rendir cuentas, puede ser difícil recuperar el daño que ya se ha hecho.
Para prevenir tal situación, la ley establece un sistema de evaluación previa de los algoritmos de las plataformas en un intento de intervenir previamente en los algoritmos.
3. Las plataformas son responsables de los resultados de la toma de decisiones posterior.
Las plataformas asumirán las siguientes obligaciones por los resultados de la toma de decisiones automatizada (artículo 24):
A. Las plataformas se asegurarán de que los resultados sean justos e imparciales.
Cuando los procesadores de información personal lleven a cabo una toma de decisiones automatizada con información personal, deberán garantizar la transparencia de la toma de decisiones y la justicia e imparcialidad de los resultados, y no darán un trato diferencial irrazonable a las personas en términos de precios de transacción u otras condiciones de transacción.
B. Las plataformas proporcionarán opciones de toma de decisiones automatizadas que no se dirijan a las características personales de sus usuarios.
Cuando la entrega de información basada en push o el marketing comercial a individuos se lleve a cabo mediante la toma de decisiones automatizada, se proporcionarán a los individuos simultáneamente opciones que no estén dirigidas a las características personales de los individuos o formas fáciles de negarse a recibir.
C. Las plataformas darán explicaciones sobre los resultados de la toma de decisiones.
Cuando una decisión que tenga un impacto material en los derechos e intereses de una persona se tome por medio de una toma de decisiones automatizada, la persona tendrá derecho a solicitar al procesador de información personal que dé explicaciones, así como el derecho a rechazar la toma de decisiones. decisiones del procesador de información personal únicamente mediante la toma de decisiones automatizada.
La regla responsabiliza a las plataformas por los resultados de la toma de decisiones automatizada, que incluyen:
R. La regla no reconoce la defensa de "neutralidad tecnológica" que han utilizado las plataformas. Las plataformas deben ser responsables de los resultados de la toma de decisiones algorítmica automatizada y deben garantizar que los resultados sean justos y razonables.
B. La regla amplía el derecho a saber de los usuarios de la plataforma. Los usuarios pueden solicitar la transparencia de los resultados de la toma de decisiones automatizada, así como explicaciones de las plataformas en caso de “impacto material”.
C. La regla requiere que las plataformas rompan los "capullos de información" creados por recomendaciones algorítmicas personalizadas a los usuarios, y requiere que las plataformas protejan el derecho de los usuarios a saber.
III. Nuestros comentarios
China ha logrado un gran avance en el PIPL al agregar reglas legales para los algoritmos de las plataformas de toma de decisiones automatizada. Sin embargo, aún debe perfeccionarse más. Por ejemplo, la ley no aclara:
A. condiciones para que las plataformas inicien la evaluación de algoritmos.
B. si los informes de evaluación se harán públicos y en qué medida después de que las plataformas evalúen sus algoritmos, y
C. cómo las plataformas deben ser responsables del daño causado por su toma de decisiones algorítmica automatizada.
Supongo que los reguladores chinos todavía están explorando la posibilidad de promulgar una serie de regulaciones específicas para implementar aún más el PIPL.
Foto por Viaje por carretera con Raj on Unsplash
Colaboradores: Guodong Du 杜国栋