{ "@context": "https://schema.org/", "@graph": [ { "@type": "NewsArticle", "mainEntityOfPage": { "@type": "Webpage", "url": "/next/2024/03/18/reaccion-a-la-ley-de-inteligencia-artificial-de-la-ue-los-expertos-coincide-en-que-que-la-" }, "headline": "Reacci\u00f3n a la Ley de Inteligencia Artificial de la UE: Los expertos coinciden en que que la primera norma del mundo es \u0022hist\u00f3rica\u0022 aunque corta", "description": "En primicia mundial, la UE ha aprobado una normativa para regular la inteligencia artificial, pero mientras algunos sostienen que no va lo suficientemente lejos, otros afirman que podr\u00eda perjudicar a las empresas con \u0022restricciones adicionales\u0022.", "articleBody": "Los responsables pol\u00edticos europeos se han apresurado a elaborar normas y advertencias a las empresas tecnol\u00f3gicas desde el lanzamiento del ChatGPT y la semana pasada ha sido monumental para establecer las normas de la UE sobre inteligencia artificial (IA) . El mi\u00e9rcoles, el Parlamento Europeo aprob\u00f3 la Ley de Inteligencia Artificial , que adopta un enfoque basado en el riesgo para garantizar que las empresas lanzan productos que cumplen la ley antes de ponerlos a disposici\u00f3n del p\u00fablico. Un d\u00eda despu\u00e9s, la Comisi\u00f3n Europea pidi\u00f3 a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube y X, en virtud de otra legislaci\u00f3n, que detallaran c\u00f3mo est\u00e1n haciendo frente a los riesgos de la IA generativa . Aunque a la UE le preocupan sobre todo los efectos de la IA (cuando los modelos cometen errores e inventan cosas), la difusi\u00f3n viral de 'deepfakes ' y la manipulaci\u00f3n automatizada de la IA que podr\u00eda inducir a error a los votantes en las elecciones , la comunidad tecnol\u00f3gica tiene sus propias quejas con la legislaci\u00f3n, mientras que algunos investigadores afirman que no va lo suficientemente lejos. Monopolios tecnol\u00f3gicos Aunque Bruselas merece un \u0022verdadero reconocimiento\u0022 por ser la primera jurisdicci\u00f3n del mundo en aprobar una normativa que mitiga los numerosos riesgos de la IA, el acuerdo final presenta varios problemas , seg\u00fan Max von Thun, director para Europa del Open Markets Institute. Hay \u0022importantes lagunas jur\u00eddicas para las autoridades p\u00fablicas\u0022 y \u0022una regulaci\u00f3n relativamente d\u00e9bil de los modelos de base m\u00e1s grandes que plantean los mayores da\u00f1os\u0022, dijo a 'Euronews Next'. Los modelos fundacionales son modelos de aprendizaje autom\u00e1tico que se entrenan con datos y pueden utilizarse para realizar una serie de tareas, como escribir un poema, por ejemplo. ChatGPT es un modelo fundacional.\u00a0Sin embargo, la mayor preocupaci\u00f3n de von Thun son los monopolios tecnol\u00f3gicos. \u0022La Ley de Inteligencia Artificial es incapaz de abordar la principal amenaza que plantea actualmente: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnol\u00f3gicas dominantes ya tienen en nuestras vidas personales, nuestras econom\u00edas y nuestras democracias\u0022, afirm\u00f3. Asimismo, dijo que la Comisi\u00f3n Europea deber\u00eda ser cautelosa con los abusos monopol\u00edsticos en el ecosistema de la IA. \u0022 La UE deber\u00eda entender que la escala de los riesgos que plantea la IA est\u00e1 inextricablemente ligada a la escala y el poder de las empresas dominantes que desarrollan y despliegan estas tecnolog\u00edas. No se puede hacer frente con \u00e9xito a lo primero hasta que no se aborde lo segundo\u0022, afirm\u00f3 von Thun. La amenaza de los monopolios de IA salt\u00f3 a la palestra el mes pasado tras conocerse que la empresa sa Mistral AI se asociaba con Microsoft .\u00a0Para algunos de la UE fue una sorpresa, ya que Francia hab\u00eda presionado para que se hicieran concesiones a la Ley de Inteligencia Artificial en favor de empresas de c\u00f3digo abierto como Mistral. Momento hist\u00f3rico Pero varias 'start-ups' celebraron la claridad que aporta el nuevo reglamento .\u00a0\u0022La aprobaci\u00f3n definitiva de la Ley de Inteligencia Artificial por el Parlamento Europeo es un momento hist\u00f3rico y un alivio\u0022, declar\u00f3 Alex Combessie, cofundador y consejero delegado de la empresa sa de inteligencia artificial de c\u00f3digo abierto Giskard. Aunque la Ley impone restricciones y normas adicionales a los desarrolladores de sistemas de IA y modelos de base de alto riesgo, considerados \u0022riesgos sist\u00e9micos\u0022 , confiamos en que estos controles y equilibrios puedan aplicarse eficazmente\u0022, asegur\u00f3 a 'Euronews Next'. \u0022Este momento hist\u00f3rico allana el camino hacia un futuro en el que la IA se utilice de forma responsable, fomentando la confianza y garantizando la seguridad de todos\u0022, a\u00f1adi\u00f3. La legislaci\u00f3n funciona distinguiendo los riesgos que plantean los modelos fundacionales, que se basan en la potencia de c\u00e1lculo que los entrena. Los productos de IA que superan el umbral de potencia de c\u00e1lculo se regular\u00e1n de forma m\u00e1s estricta .\u00a0La clasificaci\u00f3n se considera un punto de partida y, al igual que otras definiciones, puede ser revisada por la Comisi\u00f3n. Bien p\u00fablico Pero no todo el mundo est\u00e1 de acuerdo con la clasificaci\u00f3n.\u00a0\u0022Desde mi punto de vista, los sistemas de IA utilizados en el espacio de la informaci\u00f3n deber\u00edan clasificarse como de alto riesgo , lo que les obligar\u00eda a cumplir normas m\u00e1s estrictas, algo que no ocurre expl\u00edcitamente en la Ley de IA de la UE aprobada\u0022, afirm\u00f3 Katharina Z\u00fcgel, responsable de pol\u00edticas del Foro sobre Informaci\u00f3n y Democracia. \u0022La Comisi\u00f3n, que tiene la capacidad de modificar los casos de uso de los sistemas de alto riesgo, podr\u00eda mencionar expl\u00edcitamente los sistemas de IA empleados en el espacio de la informaci\u00f3n como de alto riesgo teniendo en cuenta su impacto en los derechos fundamentales \u0022, dijo a 'Euronews Next'. \u0022Las empresas privadas no pueden ser las \u00fanicas que dirijan nuestro futuro com\u00fan. La IA debe ser un bien p\u00fablico \u0022, a\u00f1adi\u00f3.\u00a0Pero otros sostienen que las empresas tambi\u00e9n tienen que dar su opini\u00f3n y poder colaborar con la UE. \u0022Es vital que la UE aproveche el dinamismo del sector privado, que ser\u00e1 la fuerza motriz del futuro de la IA . Hacerlo bien ser\u00e1 importante para que Europa sea m\u00e1s competitiva y atractiva para los inversores\u0022, explic\u00f3 Julie Linn Teigland, socia directora de EY para Europa, Oriente Medio, India y \u00c1frica (EMEIA). Sin embargo, se\u00f1al\u00f3 que las empresas de la UE y de fuera de ella deben ser proactivas y prepararse para la entrada en vigor de la ley, lo que significa \u0022 tomar medidas para asegurarse de que disponen de un inventario actualizado de los sistemas de IA que est\u00e1n desarrollando o desplegando, y determinar su posici\u00f3n en la cadena de valor de la IA para entender sus responsabilidades legales\u0022. Sabor agridulce Para las empresas de nueva creaci\u00f3n y las peque\u00f1as y medianas empresas, eso podr\u00eda significar mucho m\u00e1s trabajo .\u00a0\u0022Esta decisi\u00f3n tiene un sabor agridulce\u0022, indic\u00f3 Marianne Tordeux Bitker, responsable de asuntos p\u00fablicos de ' Digitale'. \u0022Aunque la Ley de IA responde a un reto importante en t\u00e9rminos de transparencia y \u00e9tica, no deja de crear obligaciones sustanciales para todas las empresas que utilicen o desarrollen inteligencia artificial, a pesar de algunos ajustes previstos para las 'start-ups' y las pymes, en particular a trav\u00e9s de sandboxes regulatorios \u0022, prosigui\u00f3. \u0022Tememos que el texto simplemente crear\u00e1 barreras regulatorias adicionales que beneficiar\u00e1n a la competencia estadounidense y china, y reducir\u00e1 nuestras oportunidades para que surjan campeones europeos de IA\u0022, abund\u00f3. Aplicaci\u00f3n efectiva Pero aunque la Ley de Inteligencia Artificial sea un hecho, su aplicaci\u00f3n es el siguiente reto .\u00a0\u0022Ahora hay que centrarse en su aplicaci\u00f3n y cumplimiento efectivos. Esto tambi\u00e9n requiere una atenci\u00f3n renovada a la legislaci\u00f3n complementaria\u0022, dijo a 'Euronews Next' Risto Uuk, responsable de investigaci\u00f3n sobre la UE en el Future of Life Institute, una organizaci\u00f3n sin \u00e1nimo de lucro. Esta legislaci\u00f3n complementaria incluye la Directiva de Responsabilidad de la IA, destinada a ayudar en las reclamaciones de responsabilidad por da\u00f1os causados por productos y servicios habilitados para la IA, y la Oficina de IA de la UE, cuyo objetivo es racionalizar la aplicaci\u00f3n de las normas . \u0022La clave para que la ley valga lo que cuesta es que la Oficina de Inteligencia Artificial disponga de recursos para realizar las tareas que se le han encomendado y que los c\u00f3digos de buenas pr\u00e1cticas para la inteligencia artificial de uso general est\u00e9n bien redactados y cuenten con la participaci\u00f3n de la sociedad civil\u0022. ", "dateCreated": "2024-03-15T17:03:23+01:00", "dateModified": "2024-03-18T11:53:46+01:00", "datePublished": "2024-03-18T10:47:43+01:00", "image": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F31%2F04%2F52%2F1440x810_cmsv2_fc9e0739-bc88-52f9-94a8-cb0393bab972-8310452.jpg", "width": 1440, "height": 810, "caption": "El logotipo de OpenAI aparece en un tel\u00e9fono m\u00f3vil con una imagen en la pantalla de un ordenador generada por el modelo Dall-E de conversi\u00f3n de texto en imagen de ChatGPT.", "thumbnail": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Farticles%2Fstories%2F08%2F31%2F04%2F52%2F432x243_cmsv2_fc9e0739-bc88-52f9-94a8-cb0393bab972-8310452.jpg", "publisher": { "@type": "Organization", "name": "euronews", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png" } }, "author": [ { "@type": "Person", "familyName": "Davies", "givenName": "Pascale", "name": "Pascale Davies", "url": "/perfiles/1426", "worksFor": { "@type": "Organization", "name": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } } ], "publisher": { "@type": "Organization", "name": "Euronews", "legalName": "Euronews", "url": "/", "logo": { "@type": "ImageObject", "url": "https://image.staticox.com/?url=https%3A%2F%2Fstatic.euronews.com%2Fwebsite%2Fimages%2Feuronews-logo-main-blue-403x60.png", "width": 403, "height": 60 }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] }, "articleSection": [ "Negocios Tecnologia" ], "isAccessibleForFree": "False", "hasPart": { "@type": "WebPageElement", "isAccessibleForFree": "False", "cssSelector": ".poool-content" } }, { "@type": "WebSite", "name": "Euronews.com", "url": "/", "potentialAction": { "@type": "SearchAction", "target": "/search?query={search_term_string}", "query-input": "required name=search_term_string" }, "sameAs": [ "https://www.facebook.com/es.euronews", "https://www.instagram.com/euronewses/", "https://flipboard.com/@euronewses", "https://twitter.com/euronewses", "https://www.linkedin.com/company/euronews" ] } ] }
NewsletterNewslettersEventsEventosPodcastsVideosAfricanews
Loader
Encuéntranos
InstagramFlipboardLinkedin
PUBLICIDAD

Reacción a la Ley de Inteligencia Artificial de la UE: Los expertos coinciden en que que la primera norma del mundo es "histórica" aunque corta

El logotipo de OpenAI aparece en un teléfono móvil con una imagen en la pantalla de un ordenador generada por el modelo Dall-E de conversión de texto en imagen de ChatGPT.
El logotipo de OpenAI aparece en un teléfono móvil con una imagen en la pantalla de un ordenador generada por el modelo Dall-E de conversión de texto en imagen de ChatGPT. Derechos de autor Michael Dwyer/AP Photo
Derechos de autor Michael Dwyer/AP Photo
Por Pascale Davies
Publicado Ultima actualización
Compartir esta noticiaComentarios
Compartir esta noticiaClose Button

En primicia mundial, la UE ha aprobado una normativa para regular la inteligencia artificial, pero mientras algunos sostienen que no va lo suficientemente lejos, otros afirman que podría perjudicar a las empresas con "restricciones adicionales".

PUBLICIDAD

Los responsables políticos europeos se han apresurado a elaborar normas y advertencias a las empresas tecnológicas desde el lanzamiento del ChatGPT y la semana pasada ha sido monumental para establecer las normas de la UE sobre inteligencia artificial (IA).

El miércoles, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que adopta un enfoque basado en el riesgo para garantizar que las empresas lanzan productos que cumplen la ley antes de ponerlos a disposición del público.

Un día después, la Comisión Europea pidió a Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube y X, en virtud de otra legislación, que detallaran cómo están haciendo frente a los riesgos de la IA generativa.

Aunque a la UE le preocupan sobre todo los efectos de la IA (cuando los modelos cometen errores e inventan cosas), la difusión viral de 'deepfakes' y la manipulación automatizada de la IA que podría inducir a error a los votantes en las elecciones, la comunidad tecnológica tiene sus propias quejas con la legislación, mientras que algunos investigadores afirman que no va lo suficientemente lejos.

Monopolios tecnológicos

Aunque Bruselas merece un "verdadero reconocimiento" por ser la primera jurisdicción del mundo en aprobar una normativa que mitiga los numerosos riesgos de la IA, el acuerdo final presenta varios problemas, según Max von Thun, director para Europa del Open Markets Institute.

Hay "importantes lagunas jurídicas para las autoridades públicas" y "una regulación relativamente débil de los modelos de base más grandes que plantean los mayores daños", dijo a 'Euronews Next'.

Los modelos fundacionales son modelos de aprendizaje automático que se entrenan con datos y pueden utilizarse para realizar una serie de tareas, como escribir un poema, por ejemplo. ChatGPT es un modelo fundacional. Sin embargo, la mayor preocupación de von Thun son los monopolios tecnológicos.

"La Ley de Inteligencia Artificial es incapaz de abordar la principal amenaza que plantea actualmente: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnológicas dominantes ya tienen en nuestras vidas personales, nuestras economías y nuestras democracias", afirmó.

Asimismo, dijo que la Comisión Europea debería ser cautelosa con los abusos monopolísticos en el ecosistema de la IA.

"La UE debería entender que la escala de los riesgos que plantea la IA está inextricablemente ligada a la escala y el poder de las empresas dominantes que desarrollan y despliegan estas tecnologías. No se puede hacer frente con éxito a lo primero hasta que no se aborde lo segundo", afirmó von Thun.

La amenaza de los monopolios de IA saltó a la palestra el mes pasado tras conocerse que la empresa sa Mistral AI se asociaba con Microsoft. Para algunos de la UE fue una sorpresa, ya que Francia había presionado para que se hicieran concesiones a la Ley de Inteligencia Artificial en favor de empresas de código abierto como Mistral.

Arthur Mensch, cofundador y CEO de Mistral AI.
Arthur Mensch, cofundador y CEO de Mistral AI.Toby Melville/Pool Photo via AP, File

Momento histórico

Pero varias 'start-ups' celebraron la claridad que aporta el nuevo reglamento. "La aprobación definitiva de la Ley de Inteligencia Artificial por el Parlamento Europeo es un momento histórico y un alivio", declaró Alex Combessie, cofundador y consejero delegado de la empresa sa de inteligencia artificial de código abierto Giskard.

Aunque la Ley impone restricciones y normas adicionales a los desarrolladores de sistemas de IA y modelos de base de alto riesgo, considerados "riesgos sistémicos", confiamos en que estos controles y equilibrios puedan aplicarse eficazmente", aseguró a 'Euronews Next'.

"Este momento histórico allana el camino hacia un futuro en el que la IA se utilice de forma responsable, fomentando la confianza y garantizando la seguridad de todos", añadió.

La legislación funciona distinguiendo los riesgos que plantean los modelos fundacionales, que se basan en la potencia de cálculo que los entrena. Los productos de IA que superan el umbral de potencia de cálculo se regularán de forma más estricta. La clasificación se considera un punto de partida y, al igual que otras definiciones, puede ser revisada por la Comisión.

Bien público

Pero no todo el mundo está de acuerdo con la clasificación. "Desde mi punto de vista, los sistemas de IA utilizados en el espacio de la información deberían clasificarse como de alto riesgo, lo que les obligaría a cumplir normas más estrictas, algo que no ocurre explícitamente en la Ley de IA de la UE aprobada", afirmó Katharina Zügel, responsable de políticas del Foro sobre Información y Democracia.

"La Comisión, que tiene la capacidad de modificar los casos de uso de los sistemas de alto riesgo, podría mencionar explícitamente los sistemas de IA empleados en el espacio de la información como de alto riesgo teniendo en cuenta su impacto en los derechos fundamentales", dijo a 'Euronews Next'.

"Las empresas privadas no pueden ser las únicas que dirijan nuestro futuro común. La IA debe ser un bien público", añadió. Pero otros sostienen que las empresas también tienen que dar su opinión y poder colaborar con la UE.

"Es vital que la UE aproveche el dinamismo del sector privado, que será la fuerza motriz del futuro de la IA. Hacerlo bien será importante para que Europa sea más competitiva y atractiva para los inversores", explicó Julie Linn Teigland, socia directora de EY para Europa, Oriente Medio, India y África (EMEIA).

Sin embargo, señaló que las empresas de la UE y de fuera de ella deben ser proactivas y prepararse para la entrada en vigor de la ley, lo que significa "tomar medidas para asegurarse de que disponen de un inventario actualizado de los sistemas de IA que están desarrollando o desplegando, y determinar su posición en la cadena de valor de la IA para entender sus responsabilidades legales".

Sabor agridulce

Para las empresas de nueva creación y las pequeñas y medianas empresas, eso podría significar mucho más trabajo. "Esta decisión tiene un sabor agridulce", indicó Marianne Tordeux Bitker, responsable de asuntos públicos de ' Digitale'.

"Aunque la Ley de IA responde a un reto importante en términos de transparencia y ética, no deja de crear obligaciones sustanciales para todas las empresas que utilicen o desarrollen inteligencia artificial, a pesar de algunos ajustes previstos para las 'start-ups' y las pymes, en particular a través de sandboxes regulatorios", prosiguió.

"Tememos que el texto simplemente creará barreras regulatorias adicionales que beneficiarán a la competencia estadounidense y china, y reducirá nuestras oportunidades para que surjan campeones europeos de IA", abundó.

El logotipo de OpenAI se muestra en un teléfono celular con una imagen en un monitor generado por el modelo de texto a imagen Dall-E de ChatGPT.
El logotipo de OpenAI se muestra en un teléfono celular con una imagen en un monitor generado por el modelo de texto a imagen Dall-E de ChatGPT.AP Photo/Michael Dwyer, File

Aplicación efectiva

Pero aunque la Ley de Inteligencia Artificial sea un hecho, su aplicación es el siguiente reto. "Ahora hay que centrarse en su aplicación y cumplimiento efectivos. Esto también requiere una atención renovada a la legislación complementaria", dijo a 'Euronews Next' Risto Uuk, responsable de investigación sobre la UE en el Future of Life Institute, una organización sin ánimo de lucro.

Esta legislación complementaria incluye la Directiva de Responsabilidad de la IA, destinada a ayudar en las reclamaciones de responsabilidad por daños causados por productos y servicios habilitados para la IA, y la Oficina de IA de la UE, cuyo objetivo es racionalizar la aplicación de las normas.

"La clave para que la ley valga lo que cuesta es que la Oficina de Inteligencia Artificial disponga de recursos para realizar las tareas que se le han encomendado y que los códigos de buenas prácticas para la inteligencia artificial de uso general estén bien redactados y cuenten con la participación de la sociedad civil".

Ir a los atajos de accesibilidad
Compartir esta noticiaComentarios

Noticias relacionadas

Ahora la IA puede detectar el sarcasmo: ¡Genial...!

Drones, misiles o bombas nucleares: ¿Con qué armas cuenta Irán para tomar represalias contra Israel?

Las emisiones de las grandes empresas tecnológicas aumentaron un 150% en 3 años debido al auge de la IA