Confía, pero verifica (con mejores datos): superar el problema de las alucinaciones de la IA

Confía, pero verifica (con mejores datos): superar el problema de las alucinaciones de la IA

Divulgación: Los puntos de vista y opiniones expresados ​​aquí pertenecen únicamente al autor y no representan los puntos de vista y opiniones del editorial de crypto.news.

El diccionario en línea líder en el mundo, Dictionary.com, recientemente tuvo una interesante elección para su palabra del año 2023: alucinar. Esto no se debe a un pánico en torno a un nuevo tipo de alucinógeno o a un nuevo movimiento de histeria colectiva, sino a un nombre muy peculiar para un fenómeno muy peculiar que surge de la industria emergente de la inteligencia artificial, o más precisamente, la inteligencia artificial general ( AGI), que ha despegado en la conciencia pública desde el lanzamiento del chatbot de IA generativa ChatGPT por parte de OpenAI en noviembre de 2022.

Por supuesto, sólo los organismos vivos con sentidos reales pueden «alucinar», pero este es el término general que se ha utilizado para describir cuando una inteligencia artificial proporciona información falsa o genera un lenguaje aleatorio que no responde a la consulta particular que se le ha hecho. .

En un caso, la inteligencia artificial del motor de búsqueda Bing de Microsoft comenzó a ignorar las consultas de un periodista del New York Times mientras intentaba persuadirlo de que dejara a su esposa. Aparte de esa divertida curiosidad (tal vez no tanto para el periodista), las primeras alucinaciones de AGI han creado problemas reales cuando los usuarios de motores de consulta como ChatGPT aceptan sin cuestionar sus respuestas. En un caso, los abogados fueron multados (y se rieron de ellos en la sala del tribunal) por usar ChatGPT para elaborar un escrito legal lleno de varias citaciones de casos falsos.

Esos abogados crearon dolor financiero a corto plazo e indudablemente cierta vergüenza personal y profesional a largo plazo para ellos mismos, pero ¿qué sucede cuando están en juego millones y tal vez incluso miles de millones?

Tenemos que tener cuidado con el atractivo de la inteligencia artificial, especialmente en una industria financiera que ha prosperado gracias a la automatización, pero que también ha sufrido pérdidas significativas a causa de ella. Si vamos a hacer que esta nueva herramienta de análisis de datos forme parte de nuestra infraestructura de información en el futuro, y especialmente de nuestra infraestructura de información financiera en el futuro, debemos tener cuidado con la forma en que estas tecnologías se implementan y se autorregulan dentro de la industria.

No mucha gente puede olvidar los primeros (y a veces peligrosos) días de las operaciones automatizadas de alta frecuencia, como cuando un algoritmo eliminó casi 500 millones de dólares en valor de la Bolsa de Nueva York en 2012. Los datos falsos presentados por potenciales Las alucinaciones de AGI, envueltas en un lenguaje familiar y humano, pueden ser aún más riesgosas, no sólo propagando datos falsos que pueden exacerbar las operaciones mal informadas y los pánicos financieros, sino también persuadir a los comerciantes humanos a cometer otros errores de juicio a largo plazo.

¿Por qué se crean las alucinaciones? A veces, la forma en que se construyen las indicaciones puede confundir las iteraciones actuales de la IA generativa o los modelos de lenguaje grande (LLM). Del mismo modo, los altavoces inteligentes como Google Home o Amazon Echo pueden malinterpretar el ruido de fondo como una consulta que se les dirige.

En la mayoría de los casos, también se da el caso en el que los primeros AGI han sido entrenados en un conjunto de datos defectuoso, ya sea mediante un etiquetado o una categorización errónea. Este es más que un simple caso en el que diferentes lados del pasillo político tienen su propia definición de “hechos alternativos” o “noticias falsas” o eligen enfatizar las noticias que hacen que su lado quede bien y el otro quede mal; el AGI simplemente no tiene suficientes datos en su modelo para proporcionar una respuesta directa o coherente, por lo que cae en el agujero de dar una respuesta incoherente e indirecta.

En cierto modo, no se diferencia de otras tecnologías incipientes que le precedieron, con una ambición que superó la calidad y velocidad de entrega de datos existentes. Internet no cambió realmente las reglas del juego hasta que pudo transportar cantidades significativas de datos de una computadora personal a otra, y algunos dirían que las reglas del juego realmente cambiaron cuando nuestros teléfonos celulares pudieron hacer lo mismo. Esta nueva AGI también está entrenando a los humanos para que sigan construyendo y proporcionando a estos nuevos modelos de IA mejores conjuntos de datos y formas más eficientes de proporcionar información e inteligencia rápidas, utilizables y, con suerte, coherentes.

Muchos han sugerido diferentes formas de minimizar las alucinaciones, incluido algo llamado generación de recuperación aumentada (RAG), que es esencialmente una forma de actualizar continuamente las fuentes de datos en tiempo real. Esta podría ser una ventaja de Grok AI de Elon Musk, que tiene acceso a la fuente pública de datos en tiempo real más popular de los últimos 15 años.

Sin embargo, soy partidario de blockchain como solución. No estaría encerrado en un guardián corporativo ni en un jardín de datos amurallado y podría crear nuevas y mejores fuentes de datos descentralizados. Blockchain está diseñado no sólo para el almacenamiento y la transmisión de datos entre pares, sino también para la transmisión de pagos, lo que podría crear nuevos métodos de incentivo para lo que seguramente será una nueva etapa radical de una economía de la información impulsada por la IA.

En el mundo de las finanzas, algo así como un gráfico de conocimiento descentralizado empoderaría e incentivaría a las partes interesadas de toda la industria a compartir más datos de forma transparente. Blockchain podría actualizar y verificar toda la información relevante e inmutable en tiempo real. Este método de verificación de datos sería una versión potenciada de RAG y reduciría drásticamente el número de alucinaciones AGI, con activos de conocimiento con semántica y verificabilidad integradas (En aras de la divulgación, he trabajado con OriginTrail, que está desarrollando su versión de un gráfico de conocimiento descentralizado.).

Puede que llegue un día en que los “robots” sean incluso mejores comerciantes que las personas. En última instancia, será nuestra elección crear un sistema que proporcione a esos robots las herramientas para ser mejores, más robustos y más rápidos en la realidad que creamos y no en la que están «alucinando».

Enzo Villani

Enzo Villani es el director ejecutivo y director de inversiones de Alpha Transform Holdings. Es un emprendedor en serie con veinte años de experiencia como estratega jefe de empresas Fortune 500, firmas de capital privado y capital de riesgo. Enzo fue cofundador de Nasdaq Corporate Solutions y cofundador y director de estrategia de dos consolidaciones estratégicas de fusiones y adquisiciones en relaciones con inversores, solicitud de poderes, gobierno corporativo y tecnología financiera. En la industria blockchain, Enzo fue el director de estrategia de Transform Group, que representó el lanzamiento de más del 37% de la capitalización de mercado de las monedas alternativas para 2019. Cofundó Blockchain Wire y supervisó la estrategia internacional y la innovación en OKEx. Enzo tiene un MBA de la Escuela Johnson de la Universidad de Cornell.

Síguenos en Google Noticias

Consulte el artículo original en inglés