Limitación AI: emociones, creatividad, empatía y moralidad.

 

Comparto algunos Papers Académicos en relación al artículo ¨Capacidades humanas que ninguna IA puede replicar.¨ que habla de las limitaciones de la inteligencia artificial (IA) en ciertas áreas humanas.


Reconocimiento de emociones

ScienceDirect publica sobre el reconocimiento de emociones aplicando metodologías convencionales y de aprendizaje profundo, enfocándose en las limitaciones y los desafíos demandantes​​.

Leer Paper ⟶

Un artículo en Nature menciona un profundo desacuerdo científico sobre si la IA puede detectar emociones de manera fiable, con una revisión de 2019 que no encontró evidencia confiable para ello​​.
Leer Paper ⟶

Creatividad

Un estudio en Nature explora cómo el sesgo contra el arte generado por IA puede realzar la percepción de la creatividad humana​​.

Leer Paper ⟶

La revista ScienceDirect publicó un artículo que debate si las promesas de la creatividad artificial se alinean con las realidades de la cognición artificial​​.

Leer Paper ⟶

Un artículo de Tandfonline discute el valor generativo y las limitaciones de la creatividad artificial cotidiana en relación con la alfabetización en datos cívicos y el empoderamiento del usuario​​.

Leer Paper ⟶

Empatía

Un artículo en PubMed sostiene que la IA empática es imposible, inmoral o ambas, y que la empatía es un límite en principio para la IA​​.

Leer Paper ⟶


Según Nature, la empatía generada por la IA es convincente y bien recibida hasta que los receptores se dan cuenta de que es artificial​​.

Leer Paper ⟶

Un estudio en ScienceDirect destaca algunas limitaciones notables en la investigación de la IA empática​​.

Leer Paper ⟶

Decisiones morales

Un estudio de NCBI muestra que las personas tienden a hacer juicios morales más duros sobre el comportamiento de los agentes de IA y resisten que la IA tome decisiones morales​​.

Leer Paper ⟶

ScienceDirect publicó un artículo que indica que la IA es percibida como más propensa a tomar decisiones utilitarias en dilemas morales que los seres humanos​​.
Leer Paper ⟶

Un artículo en Harvard Business Review señala que la IA falla notoriamente en capturar o responder a factores humanos intangibles que entran en la toma de decisiones de la vida real, como consideraciones éticas, morales y otras​​.

Leer Paper ⟶

 
Anterior
Anterior

Los pensamientos y sentimientos son historias. ¿Quién los escribe?

Siguiente
Siguiente

La historia de la familia Pelayo Zacca.