
Investigadores de Microsoft y la Universidad Carnegie Mellon publicaron recientemente un estudio que analiza cómo el uso de la IA generativa en el trabajo afecta las habilidades de pensamiento crítico.
"Utilizadas de manera incorrecta, las tecnologías pueden resultar en la deterioración de las facultades cognitivas que deben ser preservadas", indica el documento.
Cuando las personas dependen de la IA generativa en el trabajo, su esfuerzo se desplaza hacia verificar si la respuesta de la IA es lo suficientemente buena para usar, en lugar de usar habilidades de pensamiento crítico de orden superior como crear, evaluar y analizar información. Si los humanos solo intervienen cuando las respuestas de la IA son insuficientes, según el documento, los trabajadores se ven privados de "oportunidades rutinarias para practicar su juicio y fortalecer su musculatura cognitiva, dejándolos atrofiados y sin preparación cuando surgen las excepciones".
En este estudio realizado a 319 personas que informaron usar IA generativa al menos una vez a la semana en el trabajo, se les pidió que compartieran tres ejemplos de cómo usaban la IA generativa en el trabajo, los cuales se dividieron en tres categorías principales: creación (escribir un correo electrónico formulado a un colega, por ejemplo); información (investigar un tema o resumir un artículo largo); y asesoramiento (solicitar orientación o hacer un gráfico a partir de datos existentes). Luego, se les preguntó si practicaban habilidades de pensamiento crítico al realizar la tarea, y si el uso de la IA generativa los hacía utilizar más o menos esfuerzo para pensar críticamente. Para cada tarea mencionada por los participantes, también se les pidió que compartieran cuán seguros estaban en sí mismos, en la IA generativa y en su capacidad para evaluar las salidas de la IA.
Aproximadamente el 36% de los participantes informaron que usaban habilidades de pensamiento crítico para mitigar posibles resultados negativos del uso de la IA. Un participante dijo que usaba ChatGPT para escribir una evaluación de rendimiento, pero verificaba la salida de la IA por temor a poder enviar algo que lo suspendiera. Otro participante informó que tenía que editar correos electrónicos generados por IA que enviaría a su jefe, cuya cultura pone más énfasis en la jerarquía y la edad, para no cometer un error. Y en muchos casos, los participantes verificaban las respuestas generadas por la IA con búsquedas más generales en la web desde recursos como YouTube y Wikipedia, posiblemente, anulando el propósito de usar IA en primer lugar.
Para que los trabajadores compensen las deficiencias de la IA generativa, necesitan comprender cómo se producen esas deficiencias. Pero no todos los participantes estaban familiarizados con los límites de la IA.
"Los posibles daños colaterales de las respuestas de GenAI pueden motivar el pensamiento crítico, pero solo si el usuario es consciente conscientemente de tales daños", dice el papel.
De hecho, el estudio encontró que los participantes que informaron confianza en la IA utilizaron menos esfuerzo de pensamiento crítico que aquellos que informaron confiar en sus propias habilidades.
Aunque los investigadores se muestran cautelosos al afirmar que las herramientas de IA generativa te hacen más tonto, el estudio muestra que la excesiva dependencia de estas herramientas puede debilitar nuestra capacidad para resolver problemas de forma independiente.