{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/my-europe/2023/10/19/el-proyecto-de-ley-de-la-ue-sobre-abusos-sexuales-a-menores-desata-polemica-en-torno-a-la-" }, "headline": "El proyecto de ley de la UE sobre abusos sexuales a menores desata pol\u00e9mica en torno a la privacidad", "description": "Algunos han argumentado que la propuesta de ley de la UE podr\u00eda dar paso a la vigilancia masiva en el bloque mediante el seguimiento de todas las comunicaciones, incluidos los mensajes cifrados.", "articleBody": "Rhiannon ten\u00eda solo trece a\u00f1os cuando fue captado por Internet y v\u00edctima de abusos sexuales. Su agresor fue acusado, pero el impacto de sus cr\u00edmenes es amplio. \u0022No habl\u00e9 de mis abusos durante mucho tiempo\u0022, cuenta Rhiannon a Euronews. \u0022Sufr\u00ed ansiedad, ataques de p\u00e1nico, depresi\u00f3n, autolesiones e intentos de suicidio\u0022. Hoy, a sus 33 a\u00f1os, vive sabiendo que las im\u00e1genes y v\u00eddeos de sus abusos siguen circulando por Internet. Pero habla claro, pidiendo una normativa m\u00e1s estricta para acabar con los depredadores sexuales. El jueves, los ministros de la Uni\u00f3n Europea debatir\u00e1n las nuevas leyes propuestas por la Comisi\u00f3n Europea para hacer frente a los abusos sexuales a menores en Internet y garantizar que delitos como los cometidos contra Rhiannon no se revivan d\u00eda tras d\u00eda en la red. Rhiannon, ciudadana brit\u00e1nica, afirma que la normativa propuesta por la UE, junto con la Ley de Seguridad en L\u00ednea del Reino Unido, que pronto se convertir\u00e1 en ley, son fundamentales en la lucha mundial contra los abusos sexuales a menores. Las leyes previstas por la UE utilizar\u00edan tecnolog\u00edas emergentes para detectar material nuevo y existente de abuso sexual infantil (CSAM) y actividades de captaci\u00f3n de menores, y dar\u00edan a las autoridades nacionales el poder de obligar a los servicios digitales a escanear las comunicaciones de los s, incluidos los mensajes cifrados. Pero ha estallado una amarga pol\u00e9mica. Los defensores de la protecci\u00f3n de la infancia con los grupos de presi\u00f3n de los derechos digitales afirman que instigar\u00e1 un r\u00e9gimen de vigilancia masiva y supondr\u00e1 el fin de la privacidad digital tal y como la conocemos. En cambio, los partidarios aseguran que no aprobar la normativa dejar\u00eda a los delincuentes sin detectar y a las grandes tecnol\u00f3gicas sin regular. Entre ambos bandos hay una l\u00ednea muy fina: c\u00f3mo atrapar a los pederastas sin socavar nuestra privacidad en Internet. \u00bfEst\u00e1n las tecnolog\u00edas lo suficientemente maduras? Para detectar el material de abuso sexual infantil (CSAM) conocido por las fuerzas de seguridad, la Comisi\u00f3n ha propuesto utilizar la llamada funci\u00f3n hash perceptiva, que toma una huella digital, o hash, de los archivos da\u00f1inos y detecta r\u00e9plicas en Internet. Pero los expertos acad\u00e9micos advierten de que los autores pueden manipular f\u00e1cilmente las im\u00e1genes para eludir la detecci\u00f3n, y que s inocentes podr\u00edan ser acusados injustamente: \u0022El problema es que es muy f\u00e1cil romper el hash cambiando un p\u00edxel o incluso recortando ligeramente la imagen\u0022, explic\u00f3 el profesor Bart Preneel, experto en criptograf\u00eda de la universidad KU Leuven. \u0022Tambi\u00e9n es posible que una imagen perfectamente leg\u00edtima sea marcada como falso positivo\u0022. La Comisi\u00f3n quiere crear en La Haya un Centro de la UE sobre abusos sexuales a menores, donde se contratar\u00eda personal para filtrar manualmente los contenidos marcados como ilegales y evitar as\u00ed inundar de falsos positivos a las fuerzas de seguridad. Pero la organizaci\u00f3n de la sociedad civil EAT International afirma que hay pruebas suficientes de que las tecnolog\u00edas de hash perceptivo funcionan. \u0022Estas tecnolog\u00edas no son s\u00f3lo prometedoras, sino que han demostrado su eficacia. Los m\u00e9todos basados en hash han sido eficaces durante m\u00e1s de una d\u00e9cada, permitiendo una actuaci\u00f3n m\u00e1s r\u00e1pida contra los contenidos ilegales y ayudando a la aplicaci\u00f3n de la ley. Por ejemplo, m\u00e1s de 200 empresas utilizan la tecnolog\u00eda PhotoDNA para impedir que sus servicios se utilicen para difundir material de abuso sexual infantil\u0022, declar\u00f3 un portavoz de EAT. La Comisi\u00f3n tambi\u00e9n quiere utilizar la inteligencia artificial (IA) para detectar CSAM de nueva creaci\u00f3n, as\u00ed como para se\u00f1alar patrones de comportamiento que puedan constituir captaci\u00f3n de menores. Preneel declar\u00f3 a Euronews que estos m\u00e9todos supondr\u00edan un riesgo a\u00fan mayor de falsa incriminaci\u00f3n. \u0022Incluso si reducimos la tasa de error al 1%, con miles de millones de im\u00e1genes enviadas en la UE cada d\u00eda podr\u00edamos estar ante decenas de millones de falsos positivos diarios\u0022, afirm\u00f3 Preneel. \u0022Podr\u00edamos estar incriminando a personas inocentes, acus\u00e1ndolas del m\u00e1s grave de los delitos\u0022, prosigui\u00f3. Preneel tambi\u00e9n advierte de que los adolescentes que comparten voluntaria y legalmente im\u00e1genes de desnudos entre s\u00ed podr\u00edan ser criminalizados injustamente. Sin embargo, aunque reconoce que los modelos de IA basados en el lenguaje para detectar conductas de grooming a\u00fan necesitan madurar, EAT afirma que la IA se ha desplegado con \u00e9xito para detectar nuevos CSAM con \u0022bajas tasas de error\u0022. \u0022Las herramientas de detecci\u00f3n de CSAM est\u00e1n espec\u00edficamente entrenadas para no encontrar im\u00e1genes legales\u0022, explic\u00f3 el portavoz de EAT. \u0022Estas herramientas est\u00e1n entrenadas en CSAM conocidos, pornograf\u00eda adulta e im\u00e1genes benignas, particularmente para distinguir entre ellas y evitar que las im\u00e1genes benignas sean malinterpretadas como CSAM\u0022. Mi\u00e9 Kohiyama, otra superviviente de abusos sexuales a menores de Francia que, como Rhiannon, aboga por una regulaci\u00f3n m\u00e1s estricta, afirma que la prevalencia de im\u00e1genes y v\u00eddeos de abusos a menores en Internet significa que la Uni\u00f3n Europea tiene la responsabilidad de tomar medidas. \u0022M\u00e1s del 60% de estas im\u00e1genes est\u00e1n alojadas en servidores europeos, as\u00ed que tenemos la responsabilidad de actuar al respecto\u0022, explica. \u0022La detecci\u00f3n es clave, y la eliminaci\u00f3n tambi\u00e9n\u0022. \u00bfLa nueva normativa socavar\u00eda la privacidad? El aspecto m\u00e1s controvertido de la propuesta de la Comisi\u00f3n es la obligaci\u00f3n de las empresas tecnol\u00f3gicas de desplegar tecnolog\u00eda de escaneado del lado del cliente (CSS) para escanear los mensajes de los s, incluidas las comunicaciones cifradas de extremo a extremo en plataformas como Whatsapp, de Meta, cuando se identifique un riesgo. Esto significar\u00eda que podr\u00edan intervenirse los mensajes cifrados, fotos, correos electr\u00f3nicos y notas de voz de los s. Los defensores de la privacidad advierten de que esto supone una grave violaci\u00f3n del derecho a la privacidad en l\u00ednea y podr\u00eda ser f\u00e1cilmente manipulado por agentes maliciosos. El CSS fue desplegado brevemente por Apple en 2021 para escanear las cargas de iCloud, pero fue retirado a las pocas semanas cuando el sistema fue secuestrado. Pero EAT International dice que es importante recordar que CSS opera \u0022antes de que los datos se cifren.\u0022 \u0022Lo hace marcando CSAM antes de que se cargue y se env\u00ede a trav\u00e9s de un entorno cifrado - de la misma manera que WhatsApp, un servicio cifrado de extremo a extremo, ya despliega tecnolog\u00eda para detectar malware y virus\u0022, dijo un portavoz de EAT. Los cr\u00edticos tambi\u00e9n avisan que socavar el cifrado podr\u00eda sentar un peligroso precedente para los reg\u00edmenes autoritarios, que podr\u00edan manipular la tecnolog\u00eda para detectar cr\u00edticas y atacar a los disidentes. Seg\u00fan Mi\u00e9, este alarmismo no es m\u00e1s que una forma de desviar la atenci\u00f3n del problema real. \u0022Europa es una democracia, no una dictadura. Y no seamos ingenuos: en una dictadura, cuando se quiere espiar a los ciudadanos se esp\u00eda a los ciudadanos. No hace falta un nuevo reglamento\u0022. \u00bfPueden los ministros de la UE llegar a un compromiso? La propuesta de reglamento ha provocado que muchas capitales de la UE est\u00e9n preocupadas por la madurez de las tecnolog\u00edas y la amenaza a la privacidad de los consumidores. Los ministros pueden optar por dar luz verde a ciertos aspectos del texto, mientras dejan en suspenso otros planes hasta que las tecnolog\u00edas hayan madurado lo suficiente. Mi\u00e9 y Rhiannon declararon a Euronews que los ministros deber\u00edan evitar ceder a la presi\u00f3n de los grandes grupos de presi\u00f3n tecnol\u00f3gicos y digitales. En su opini\u00f3n, el fuerte aumento del material abusivo demuestra que las medidas voluntarias de las empresas tecnol\u00f3gicas para detectar y retirar contenidos son claramente insuficientes. Un estudio publicado el martes por la Alianza Global WeProtect sugiere que el material de abuso sexual infantil denunciado ha aumentado un 87% desde 2019. \u0022Las empresas tecnol\u00f3gicas dise\u00f1an sus productos para atraer a los ni\u00f1os y engancharlos el mayor tiempo posible. Si ese es su modelo, tiene que ser un entorno seguro para los ni\u00f1os\u0022, dijo Rhiannon. \u0022El modelo de autorregulaci\u00f3n de las empresas tecnol\u00f3gicas no ha funcionado, como demuestra el n\u00famero de ni\u00f1os v\u00edctimas de abusos. Tenemos que legislar sobre esta cuesti\u00f3n, tenemos que obligar a las empresas tecnol\u00f3gicas a proteger a los ni\u00f1os\u0022, a\u00f1adi\u00f3. Mi\u00e9 tambi\u00e9n cree que el bloque tiene la responsabilidad de proteger a los supervivientes de abusos asistidos por medios digitales de la retraumatizaci\u00f3n que supone saber que todos los d\u00edas se ven im\u00e1genes de sus abusos. \u0022Estas supervivientes tienen miedo de todo. No pueden salir de casa. Algunas tienen miedo incluso de usar Internet. Son personas totalmente marginadas de la sociedad\u0022, afirma, \u0022tenemos que protegerlas. Tenemos que proteger a los ni\u00f1os. Tiene que ser lo primero en la mente de todos\u0022, remarca. ", "dateCreated": "2023-10-18T18:03:00+02:00", "dateModified": "2023-10-19T15:38:43+02:00", "datePublished": "2023-10-19T15:38:32+02:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F97%2F76%2F30%2F1440x810_cmsv2_9858f333-340e-5904-9ec2-cee82d0ab6d1-7977630.jpg", "width": 1440, "height": 810, "caption": "Un ni\u00f1o juega con el m\u00f3vil", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F07%2F97%2F76%2F30%2F432x243_cmsv2_9858f333-340e-5904-9ec2-cee82d0ab6d1-7977630.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Jones", "givenName": "Mared Gwyn", "name": "Mared Gwyn Jones", "url": "/perfiles/2766", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "sameAs": "https://www.x.com/@MaredGwyn", "memberOf": { "@type": "Organization", "name": "Correspondant \u00e0 Bruxelles" } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "C\u00f3digo Europa" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

El proyecto de ley de la UE sobre abusos sexuales a menores desata polémica en torno a la privacidad

Un niño juega con el móvil
Un niño juega con el móvil Derechos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Derechos de autor Michal Dyjuk/Copyright 2022 The AP. All rights reserved
Por Mared Gwyn Jones
Publicado
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

Algunos han argumentado que la propuesta de ley de la UE podría dar paso a la vigilancia masiva en el bloque mediante el seguimiento de todas las comunicaciones, incluidos los mensajes cifrados.

PUBLICIDAD

Rhiannon tenía solo trece años cuando fue captado por Internet y víctima de abusos sexuales.

Su agresor fue acusado, pero el impacto de sus crímenes es amplio.

"No hablé de mis abusos durante mucho tiempo", cuenta Rhiannon a Euronews. "Sufrí ansiedad, ataques de pánico, depresión, autolesiones e intentos de suicidio".

Hoy, a sus 33 años, vive sabiendo que las imágenes y vídeos de sus abusos siguen circulando por Internet. Pero habla claro, pidiendo una normativa más estricta para acabar con los depredadores sexuales.

El jueves, los ministros de la Unión Europea debatirán las nuevas leyes propuestas por la Comisión Europea para hacer frente a los abusos sexuales a menores en Internet y garantizar que delitos como los cometidos contra Rhiannon no se revivan día tras día en la red.

Rhiannon, ciudadana británica, afirma que la normativa propuesta por la UE, junto con la Ley de Seguridad en Línea del Reino Unido, que pronto se convertirá en ley, son fundamentales en la lucha mundial contra los abusos sexuales a menores.

Las leyes previstas por la UE utilizarían tecnologías emergentes para detectar material nuevo y existente de abuso sexual infantil (CSAM) y actividades de captación de menores, y darían a las autoridades nacionales el poder de obligar a los servicios digitales a escanear las comunicaciones de los s, incluidos los mensajes cifrados.

Pero ha estallado una amarga polémica. Los defensores de la protección de la infancia con los grupos de presión de los derechos digitales afirman que instigará un régimen de vigilancia masiva y supondrá el fin de la privacidad digital tal y como la conocemos. En cambio, los partidarios aseguran que no aprobar la normativa dejaría a los delincuentes sin detectar y a las grandes tecnológicas sin regular.

Entre ambos bandos hay una línea muy fina: cómo atrapar a los pederastas sin socavar nuestra privacidad en Internet.

¿Están las tecnologías lo suficientemente maduras?

Para detectar el material de abuso sexual infantil (CSAM) conocido por las fuerzas de seguridad, la Comisión ha propuesto utilizar la llamada función hash perceptiva, que toma una huella digital, o hash, de los archivos dañinos y detecta réplicas en Internet.

Pero los expertos académicos advierten de que los autores pueden manipular fácilmente las imágenes para eludir la detección, y que s inocentes podrían ser acusados injustamente: "El problema es que es muy fácil romper el hash cambiando un píxel o incluso recortando ligeramente la imagen", explicó el profesor Bart Preneel, experto en criptografía de la universidad KU Leuven. "También es posible que una imagen perfectamente legítima sea marcada como falso positivo".

La Comisión quiere crear en La Haya un Centro de la UE sobre abusos sexuales a menores, donde se contrataría personal para filtrar manualmente los contenidos marcados como ilegales y evitar así inundar de falsos positivos a las fuerzas de seguridad.

Pero la organización de la sociedad civil EAT International afirma que hay pruebas suficientes de que las tecnologías de hash perceptivo funcionan.

"Estas tecnologías no son sólo prometedoras, sino que han demostrado su eficacia. Los métodos basados en hash han sido eficaces durante más de una década, permitiendo una actuación más rápida contra los contenidos ilegales y ayudando a la aplicación de la ley. Por ejemplo, más de 200 empresas utilizan la tecnología PhotoDNA para impedir que sus servicios se utilicen para difundir material de abuso sexual infantil", declaró un portavoz de EAT.

La Comisión también quiere utilizar la inteligencia artificial (IA) para detectar CSAM de nueva creación, así como para señalar patrones de comportamiento que puedan constituir captación de menores. Preneel declaró a Euronews que estos métodos supondrían un riesgo aún mayor de falsa incriminación.

"Incluso si reducimos la tasa de error al 1%, con miles de millones de imágenes enviadas en la UE cada día podríamos estar ante decenas de millones de falsos positivos diarios", afirmó Preneel. "Podríamos estar incriminando a personas inocentes, acusándolas del más grave de los delitos", prosiguió.

Preneel también advierte de que los adolescentes que comparten voluntaria y legalmente imágenes de desnudos entre sí podrían ser criminalizados injustamente.

Sin embargo, aunque reconoce que los modelos de IA basados en el lenguaje para detectar conductas de grooming aún necesitan madurar, EAT afirma que la IA se ha desplegado con éxito para detectar nuevos CSAM con "bajas tasas de error".

"Las herramientas de detección de CSAM están específicamente entrenadas para no encontrar imágenes legales", explicó el portavoz de EAT. "Estas herramientas están entrenadas en CSAM conocidos, pornografía adulta e imágenes benignas, particularmente para distinguir entre ellas y evitar que las imágenes benignas sean malinterpretadas como CSAM".

Mié Kohiyama, otra superviviente de abusos sexuales a menores de Francia que, como Rhiannon, aboga por una regulación más estricta, afirma que la prevalencia de imágenes y vídeos de abusos a menores en Internet significa que la Unión Europea tiene la responsabilidad de tomar medidas.

"Más del 60% de estas imágenes están alojadas en servidores europeos, así que tenemos la responsabilidad de actuar al respecto", explica. "La detección es clave, y la eliminación también".

¿La nueva normativa socavaría la privacidad?

El aspecto más controvertido de la propuesta de la Comisión es la obligación de las empresas tecnológicas de desplegar tecnología de escaneado del lado del cliente (CSS) para escanear los mensajes de los s, incluidas las comunicaciones cifradas de extremo a extremo en plataformas como Whatsapp, de Meta, cuando se identifique un riesgo.

Esto significaría que podrían intervenirse los mensajes cifrados, fotos, correos electrónicos y notas de voz de los s.

Los defensores de la privacidad advierten de que esto supone una grave violación del derecho a la privacidad en línea y podría ser fácilmente manipulado por agentes maliciosos. El CSS fue desplegado brevemente por Apple en 2021 para escanear las cargas de iCloud, pero fue retirado a las pocas semanas cuando el sistema fue secuestrado.

Pero EAT International dice que es importante recordar que CSS opera "antes de que los datos se cifren."

"Lo hace marcando CSAM antes de que se cargue y se envíe a través de un entorno cifrado - de la misma manera que WhatsApp, un servicio cifrado de extremo a extremo, ya despliega tecnología para detectar malware y virus", dijo un portavoz de EAT.

Los críticos también avisan que socavar el cifrado podría sentar un peligroso precedente para los regímenes autoritarios, que podrían manipular la tecnología para detectar críticas y atacar a los disidentes.

Según Mié, este alarmismo no es más que una forma de desviar la atención del problema real.

"Europa es una democracia, no una dictadura. Y no seamos ingenuos: en una dictadura, cuando se quiere espiar a los ciudadanos se espía a los ciudadanos. No hace falta un nuevo reglamento".

¿Pueden los ministros de la UE llegar a un compromiso?

La propuesta de reglamento ha provocado que muchas capitales de la UE estén preocupadas por la madurez de las tecnologías y la amenaza a la privacidad de los consumidores. Los ministros pueden optar por dar luz verde a ciertos aspectos del texto, mientras dejan en suspenso otros planes hasta que las tecnologías hayan madurado lo suficiente.

Mié y Rhiannon declararon a Euronews que los ministros deberían evitar ceder a la presión de los grandes grupos de presión tecnológicos y digitales. En su opinión, el fuerte aumento del material abusivo demuestra que las medidas voluntarias de las empresas tecnológicas para detectar y retirar contenidos son claramente insuficientes. Un estudio publicado el martes por la Alianza Global WeProtect sugiere que el material de abuso sexual infantil denunciado ha aumentado un 87% desde 2019.

"Las empresas tecnológicas diseñan sus productos para atraer a los niños y engancharlos el mayor tiempo posible. Si ese es su modelo, tiene que ser un entorno seguro para los niños", dijo Rhiannon.

"El modelo de autorregulación de las empresas tecnológicas no ha funcionado, como demuestra el número de niños víctimas de abusos. Tenemos que legislar sobre esta cuestión, tenemos que obligar a las empresas tecnológicas a proteger a los niños", añadió.

Mié también cree que el bloque tiene la responsabilidad de proteger a los supervivientes de abusos asistidos por medios digitales de la retraumatización que supone saber que todos los días se ven imágenes de sus abusos.

"Estas supervivientes tienen miedo de todo. No pueden salir de casa. Algunas tienen miedo incluso de usar Internet. Son personas totalmente marginadas de la sociedad", afirma, "tenemos que protegerlas. Tenemos que proteger a los niños. Tiene que ser lo primero en la mente de todos", remarca.

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

La nueva normativa de la UE penalizará los "manuales de pederastia" y los "deepfakes" de abusos a menores

Von der Leyen debe centrarse en la aplicación de la ley de deforestación de la UE, no en su derogación

¿Por qué las tensiones vecinales paralizan la candidatura de adhesión a la UE de Macedonia del Norte?