Los algoritmos se han utilizado en el comercio durante décadas, pero los avances recientes podrían plantear nuevos retos a los reguladores.
Las prácticas comerciales malintencionadas no son nuevas. La lucha contra el uso de información privilegiada, así como contra las distintas formas de manipulación del mercado, representa una larga batalla para los reguladores.
Sin embargo, en los últimos años los expertos han advertido de nuevas amenazas para nuestros sistemas financieros. Los avances en inteligencia artificial hacen que los robots de negociación automatizada no sólo sean más inteligentes, sino también más independientes. Mientras que los algoritmos básicos responden a órdenes programadas, los nuevos robots son capaces de aprender de la experiencia, sintetizar rápidamente grandes cantidades de información y actuar de forma autónoma a la hora de realizar operaciones.
Según los académicos, un escenario de riesgo implica lacolaboración entre bots de IA. Imagínese: cientos de perfiles de redes sociales creados por IA empiezan a aparecer en Internet, tejiendo narrativas sobre determinadas empresas. La información difundida no es necesariamente falsa, sino que puede ser simplemente la amplificación de noticias ya existentes. En respuesta, los s reales de las redes sociales empiezan a reaccionar, resaltando el mensaje elegido por los bots.
A medida que el mercado se inclina por la narrativa elaborada, el roboadvisor de un inversor obtiene beneficios, tras haberse coordinado con los bots cotillas. Otros inversores, que no disponían de información privilegiada, salen perdiendo por una mala sincronización con el mercado. El problema es que el inversor que se beneficia puede incluso no ser consciente de la trama. Esto significa que las acusaciones de manipulación del mercado no tienen por qué ser efectivas, aunque las autoridades puedan ver que un operador se ha beneficiado de prácticas distorsionadoras.
Las plataformas sociales están cambiando el comercio
Alessio Azzutti, profesor adjunto de Derecho y Tecnología (FinTech) en la Universidad de Glasgow, dijo a 'Euronews' que el escenario anterior es todavía una hipótesis, ya que no hay pruebas suficientes para demostrar que está sucediendo. Aun así, explica que se están produciendo esquemas similares, menos sofisticados, sobre todo en "mercados de criptoactivos y mercados financieros descentralizados".
"Los actores maliciosos (...) pueden ser muy activos en plataformas de medios sociales y plataformas de mensajería como Telegram, donde pueden animar a sus a invertir su dinero en DeFi o en un criptoactivo determinado, a su conveniencia", explica Azzutti. "Podemos observar la actividad directa de actores maliciosos humanos, pero también de aquellos que despliegan bots de IA".
Añadió que los agentes que difunden desinformación pueden no ser necesariamente muy sofisticados, pero aún tienen el poder de "contaminar los chats a través de noticias falsas para engañar a los inversores minoristas".
"Y entonces la pregunta es, si un joven por su cuenta en su oficina doméstica es capaz de lograr este tipo de manipulaciones, ¿cuáles son los límites para que los grandes actores logren el mismo efecto, en mercados aún más sofisticados?".
La forma en que la información de mercado se difunde ahora por Internet, de forma generalizada, rápida y descoordinada, también está fomentando distintos tipos de negociación. Los inversores particulares son más proclives a seguir las modas, en lugar de confiar en sus propios análisis, lo que puede desestabilizar el mercado y ser potencialmente explotado por los robots de inteligencia artificial.
La saga de GameStop, ampliamente citada, es un buen ejemplo de negociación en manada, cuando los s de un foro de Reddit decidieron comprar acciones de la empresa de videojuegos en masa. Los grandes fondos de cobertura apostaron a que el precio caería, y posteriormente perdieron cuando se disparó. Muchos expertos afirman que no se trató de un caso de colusión, ya que no se creó ningún acuerdo oficial.
Un portavoz de ESMA, la Autoridad Europea de Valores y Mercados, dijo a 'Euronews' que el potencial de los bots de IA para manipular los mercados y beneficiarse de los movimientos es "una preocupación realista", aunque subrayaron que no tienen "información específica o estadísticas de que esto ya esté ocurriendo".
"Estos riesgos se intensifican aún más por el papel de las redes sociales, que pueden actuar como un canal de transmisión rápida de narrativas falsas o engañosas que influyen en la dinámica del mercado. Una cuestión clave es el grado de control humano sobre estos sistemas, ya que los mecanismos tradicionales de supervisión pueden ser insuficientes", señaló el portavoz. La AEVM subrayó que estaba "vigilando activamente" la evolución de la IA.
¿Está preparada la regulación?
Uno de los retos para los reguladores es que la colaboración entre agentes de IA no puede rastrearse fácilmente. "No se envían correos electrónicos ni se reúnen entre ellos. Simplemente aprenden con el tiempo la mejor estrategia, por lo que la forma tradicional de detectar la colusión no funciona con la IA", explica a 'Euronews' Itay Goldstein, profesor de Finanzas y Economía en la Wharton School de la Universidad de Pensilvania.
"La regulación tiene que dar un paso adelante y encontrar nuevas estrategias para hacer frente a esto", argumentó, añadiendo que faltan datos fiables sobre cómo utilizan exactamente la IA los operadores.
Filippo Annunziata, profesor de mercados financieros y legislación bancaria en la Universidad Bocconi, dijo a 'Euronews' que las normas actuales de la UE "no deberían revisarse", en referencia al Reglamento sobre Abuso de Mercado (MAR) y la Directiva sobre Mercados de Instrumentos Financieros II (MiFID II). Aún así, argumentó que "los supervisores deben estar equipados con herramientas más sofisticadas para identificar posibles manipulaciones del mercado".
Y añadió: "Incluso sugiero que pidamos a quienes desarrollan herramientas de IA para operar en los mercados y demás que incluyan disyuntores en estas herramientas de IA. Esto obligaría a parar incluso antes de que se produzca el riesgo de manipulación".
En cuanto al marco jurídico actual, también está la cuestión de la responsabilidad cuando un agente de IA actúa de forma maliciosa, independientemente de la intención humana. Esto es especialmente relevante en el caso de las denominadas operaciones de caja negra, en las que un bot ejecuta operaciones sin revelar su funcionamiento interno. Para hacer frente a esta situación, algunos expertos creen que la IA debe diseñarse para ser más transparente, de modo que los reguladores puedan comprender la lógica que subyace a las decisiones.
Otra idea es crear nuevas leyes en torno a la responsabilidad, de modo que los actores responsables del despliegue de la IA puedan ser considerados responsables de la manipulación del mercado. Esto podría aplicarse en casos en los que no tuvieran intención de engañar a los inversores. "Es un poco como la tortuga y la liebre, los supervisores suelen ser tortugas, pero los manipuladores que utilizan algoritmos son liebres, y es difícil alcanzarlos", dice Annunziata.