Se dice que la Inteligencia Artificial (IA) fue entrenada con una gran cantidad del conocimiento histórico disponible, incluyendo miles de libros, y que por tanto, es uno de los asistentes más poderosos que tenemos hoy en día….. pero ¿qué sucede cuando la más renombrada escuela de administración del mundo te dice que no se puede confiar en la IA para decisiones de negocio y además tiene pruebas para sostener su teoría?
¿Seguirías creyendo ciegamente en LLMs como Chat GPT u otros similares para las elecciones cruciales de tu empresa?

Veamos a qué se refiere Harvard con lo dicho, y entonces podrás decidir.
Harvard Business Review, la prestigiosa publicación de la afamada escuela de negocios, publicó recientemente los resultados de una investigación sobre el impacto de la IA, específicamente ChatGPT, en la toma de decisiones de ejecutivos, contrastándola con la discusión entre pares humanos.
El experimento: confiar en la IA para decisiones de negocio
El estudio involucró a más de 300 gerentes y ejecutivos en sesiones de educación ejecutiva sobre IA. A los participantes se les dio una estimación inicial del precio de las acciones de Nvidia (NVDA) a un mes en el futuro, y luego se dividieron en dos grupos:
- Grupo de Control (Discusión entre pares): Las personas interactuaron solo con colegas sin herramientas de IA.
- Grupo de Tratamiento (Consulta con ChatGPT): Pudieron hacer preguntas a ChatGPT sobre las acciones de Nvidia.
Resultados
Los resultados fueron contundentes y sorprendentes…
- La IA impulsó un optimismo excesivo: Los ejecutivos que usaron ChatGPT se volvieron más optimistas en sus pronósticos iniciales. En promedio, el grupo de ChatGPT aumentó sus estimaciones de precios de un mes en aproximadamente $5.11.

- La discusión entre pares fomentó la cautela: El grupo de discusión entre pares redujo sus estimaciones de precios, en promedio, en aproximadamente $2.20. Este grupo también fue más propenso a mantener su estimación original o a disminuirla.
- Las predicciones asistidas por IA fueron peores: A pesar del optimismo, aquellos que usaron ChatGPT hicieron predicciones aún peores después de consultarla, en comparación con sus estimaciones iniciales. El grupo de pares, en cambio, hizo predicciones significativamente mejores de las que habían hecho antes de su consulta.
- La IA generó exceso de confianza: Los participantes que consultaron a ChatGPT aumentaron significativamente su tendencia a ofrecer predicciones «milimétricas» (con decimales), un indicador de sobreconfianza. Por el contrario, el grupo de discusión entre pares se volvió significativamente menos propenso a usar puntos precisos en su estimación revisada, lo que indica una disminución de la sobreconfianza.
5 razones que explican el optimismo y la sobreconfianza inducidos por la IA
El estudio identificó cinco factores clave que explican las diferencias en los resultados:
- Extrapolación y «montar la tendencia»: ChatGPT tiende a extrapolar tendencias históricas. Dado que las acciones de Nvidia estaban en un ascenso meteórico, la IA probablemente asumió que «lo que ha estado subiendo seguirá subiendo», sesgando su guía hacia el optimismo.
- Sesgo de autoridad y sobrecarga de detalles: Los ejecutivos se impresionaron por «el detalle y el tono de confianza de la respuesta de la IA.» La presentación autoritativa de la IA, similar a un informe experto, «aumentó la credibilidad de un pronóstico optimista», llevando a los usuarios a dar más peso a sus sugerencias que a su propio juicio.
- Ausencia de emoción: A diferencia de los humanos que pueden sentir cautela o «miedo a las alturas» al ver un gráfico de acciones dispararse, ChatGPT carece de emociones. Su análisis «no está teñido por la ansiedad», lo que puede llevar a que las tendencias optimistas no sean cuestionadas por una «corazonada cautelosa».
- Calibración entre pares y dinámicas sociales: La discusión entre colegas introdujo un «conjunto diferente de sesgos y comportamientos, generalmente empujando hacia la cautela y el consenso.» En un entorno profesional, existe una presión para evitar el «optimismo desenfrenado» para no parecer ingenuo, lo que llevó a «un espiral de escepticismo en el entorno grupal» y pronósticos colectivamente más bajos y conservadores.
- Ilusión de conocimiento: El acceso a vastos cuerpos de información y herramientas de procesamiento, como ChatGPT, puede llevar a los usuarios a caer en la «ilusión de saberlo todo», aumentando su percepción de conocimiento y, consecuentemente, su confianza. Este problema ya lo habíamos hablado anteriormente, señalando el impacto de la IA en la consultoría de negocios.

Cómo utilizar de forma acertada la IA en las decisiones de negocio
Los hallazgos del estudio ofrecen lecciones cruciales para líderes que integran la IA en la toma de decisiones:
- Ser consciente de los sesgos de la IA y la ilusión de conocimiento: Es fundamental recordar que la IA «puede inclinar sutil pero significativamente sus expectativas y crear una confianza excesiva en ellas.» Se recomienda especificar los datos a analizar, solicitar intervalos de confianza y, crucialmente, «pedirle al sistema que explique por qué o cómo la predicción podría ser errónea.» Una especie de prompting basado en chain of thoughts + una solicitud de crítica interna al resultado.
- No prescindir de la discusión humana, sino aprovecharla: El contraste entre los grupos resalta el valor de la discusión entre pares como contrapeso. La combinación de la velocidad de análisis de la IA con el «sentido común humano» y la validación de los pares puede «aprovechar las fortalezas de la IA y el juicio humano, ayudando a evitar los puntos ciegos de cualquiera de ellos por sí solos.»
- El pensamiento crítico es clave, sin importar la fuente: Tanto si el consejo proviene de una IA como de un colega, los ejecutivos deben aplicar su propio juicio crítico. Es vital «no aceptar las recomendaciones al pie de la letra» y tratar a la IA «como un punto de partida para la investigación, no como la palabra final.» El estudio mismo subraya sus propias limitaciones (muestra limitada, un solo valor, horizonte temporal corto, versión de ChatGPT), enfatizando la necesidad de una lente crítica.
- Capacitar y establecer pautas para el uso de la IA en equipos: Las organizaciones deben reconocer que la IA puede fomentar la sobreconfianza e implementar directrices. Esto podría incluir «requerir una ronda de discusión entre pares o una revisión de escenarios de peor caso antes de consultar con la IA.»

Conclusiones sobre la confianza en la IA para decisiones de negocio
Si bien la IA puede mejorar el rendimiento en tareas sencillas, su influencia en decisiones de alto riesgo, como las predicciones bursátiles, merece un análisis cuidadoso.
El experimento demuestra que «incluso ejecutivos experimentados pueden ser influenciados por un argumento convincente de la IA, e incluso grupos entusiastas pueden volverse cautelosos con un poco de discusión.»
La clave para los líderes es ser conscientes de la fuente del consejo, inyectando «sentido común humano» cuando proviene de la IA y, a veces, usando la IA para obtener una perspectiva externa cuando el consejo es puramente humano.
Si quieres mantenerte al día con artículos como este, puedes recibir los contenidos en tu mail.
Y si necesitas una capacitación, o bien, asesoría para tu negocio péganos un grito. Amamos saber de ti.




Deja un comentario