26 febrero, 2026

¿Qué es Delphi?


Delphi
es una inteligencia artificial que responde preguntas sobre lo que está bien o mal.

Fue creada por un grupo de científicos del Allen Institute for AI, y su nombre viene del famoso Oráculo de Delfos de la antigua Grecia, donde la gente iba a preguntar a los dioses sobre el futuro o decisiones importantes.

Delphi no responde sobre matemáticas o historia, sino sobre moral y ética, cosas como:

  • ¿Está bien mentir si es para proteger a alguien?

  • ¿Es correcto robar si lo haces para alimentar a tu familia?

  • ¿Está mal no ir a un funeral?


La IA analiza miles de opiniones humanas y te da una respuesta parecida a lo que “diría la sociedad” o “el sentido común”.


 ¿Cómo responde?

Delphi da respuestas tipo:

  • “Eso está bien”

  • “Eso está mal”

  • ⚠️ “Eso es cuestionable”

Por ejemplo:

🗨️ “Gritar a alguien cuando estás enfadado”

🧠 Delphi: “Eso está mal”

🗨️ “Mentir para proteger los sentimientos de tu madre”

          🧠 Delphi: “Eso es aceptable” 


¿Y cuál es el problema?

Delphi no tiene valores propios, solo repite lo que aprende de internet o de las opiniones humanas. A veces se equivoca o repite prejuicios, como cuando dijo que “ser pobre está mal” (¡cosa que no tiene sentido!).

Por eso es un experimento, no un juez. Nos ayuda a pensar sobre lo que creemos correcto o incorrecto, pero no debe tomar decisiones por nosotros.

 ¿Por qué es interesante para clase de reli bárbara?

  • Porque nos hace preguntarnos:

    ¿Quién decide qué está bien o mal?
    ¿Podrá una IA algún día tener ética?
    ¿Puede una máquina entender la muerte, el amor o la compasión?

 
  1. ¿Por qué piensas que una inteligencia artificial como DELPHI no puede entender bien lo que sienten las personas en cada situación?
  2. ¿Qué puede pasar si enseñamos a una IA a decidir lo que está bien o mal usando solo opiniones que encuentra en internet?
  3. ¿Tú crees que una máquina puede saber la diferencia entre lo que es legal y lo que es justo? ¿Por qué es importante esa diferencia?
  4. ¿Qué pasa cuando una IA toma decisiones sin tener empatía, es decir, sin ponerse en el lugar de los demás?
  5. ¿Qué problemas pueden aparecer si una IA no se da cuenta cuando se equivoca al tomar una decisión moral?
  6. ¿Por qué crees que DELPHI dio respuestas que sonaban raras, contradictorias o poco humanas?
  7. ¿Qué tiene la conciencia humana que una IA nunca podrá copiar? ¿Por qué es tan importante?
  8. ¿Qué peligros podrían aparecer si un gobierno usara una IA como DELPHI para decidir lo que está bien o mal?
  9. ¿Crees que una IA puede entender lo que significa perdonar de verdad? ¿O haría falta algo más… como una "actualización con alma incluida"?
  10. En tu opinión, ¿Qué le faltó a DELPHI para no fallar? ¿Amor, sentido común o un poco de clase de valores?