El auge de la inteligencia artificial ha llevado a muchos pequeños inversores a buscar asesoramiento financiero en herramientas como ChatGPT, una práctica que los reguladores consideran de alto riesgo. La Comisión Nacional del Mercado de Valores (CNMV) y la Autoridad Europea de Valores y Mercados (ESMA) han lanzado una campaña para alertar sobre los peligros de confiar en estos sistemas para tomar decisiones de inversión.
++ Hallan muerto a un menor de edad ucraniano desaparecido en Badajoz
Los riesgos ocultos de la IA financiera
Las autoridades advierten que estas plataformas pueden generar información errónea, incompleta u obsoleta, lo que podría llevar a los inversores a tomar decisiones equivocadas. A diferencia de los asesores humanos regulados, las herramientas de IA no están obligadas a actuar en el mejor interés del cliente ni ofrecen protección ante reclamaciones. Además, los reguladores destacan que incluso los creadores de estas tecnologías no comprenden completamente su funcionamiento interno, lo que añade otro nivel de incertidumbre.
++ Países donde la gente vive más tiempo de lo normal
Problemas de privacidad y conflicto de intereses
La campaña #AIInvestorAlert también alerta sobre los riesgos de compartir datos personales y financieros con estas herramientas, que podrían no contar con las medidas de seguridad adecuadas. Los supervisores comparan esta situación con el problema de los influencers financieros, donde a menudo se presenta como análisis objetivo lo que en realidad es publicidad encubierta.
El valor insustituible del juicio humano
Mientras algunas entidades ya ofrecen carteras automatizadas basadas en IA, estas cuentan con supervisión humana. La ESMA enfatiza que en los complejos mercados financieros, el criterio humano sigue siendo esencial. La ausencia de comisiones en estas herramientas podría terminar siendo muy costosa si conduce a decisiones de inversión equivocadas, advierten los reguladores.