Delphi es una inteligencia artificial que responde preguntas sobre lo que está bien o mal.
Fue creada por un grupo de científicos del Allen Institute for AI, y su nombre viene del famoso Oráculo de Delfos de la antigua Grecia, donde la gente iba a preguntar a los dioses sobre el futuro o decisiones importantes.
Delphi no responde sobre matemáticas o historia, sino sobre moral y ética, cosas como:
-
¿Está bien mentir si es para proteger a alguien?
-
¿Es correcto robar si lo haces para alimentar a tu familia?
-
¿Está mal no ir a un funeral?
La IA analiza miles de opiniones humanas y te da una respuesta parecida a lo que “diría la sociedad” o “el sentido común”.
¿Cómo responde?
Delphi da respuestas tipo:
-
✅ “Eso está bien”
-
❌ “Eso está mal”
-
⚠️ “Eso es cuestionable”
Por ejemplo:
🗨️ “Gritar a alguien cuando estás enfadado”
🧠 Delphi: “Eso está mal”
🗨️ “Mentir para proteger los sentimientos de tu madre”
🧠 Delphi: “Eso es aceptable”
¿Y cuál es el problema?
Delphi no tiene valores propios, solo repite lo que aprende de internet o de las opiniones humanas. A veces se equivoca o repite prejuicios, como cuando dijo que “ser pobre está mal” (¡cosa que no tiene sentido!).
Por eso es un experimento, no un juez. Nos ayuda a pensar sobre lo que creemos correcto o incorrecto, pero no debe tomar decisiones por nosotros.
¿Por qué es interesante para clase de reli bárbara?
-
Porque nos hace preguntarnos:
¿Quién decide qué está bien o mal?
¿Podrá una IA algún día tener ética?
¿Puede una máquina entender la muerte, el amor o la compasión?
- ¿Por qué piensas que una inteligencia artificial como DELPHI no puede entender bien lo que sienten las personas en cada situación?
- ¿Qué puede pasar si enseñamos a una IA a decidir lo que está bien o mal usando solo opiniones que encuentra en internet?
- ¿Tú crees que una máquina puede saber la diferencia entre lo que es legal y lo que es justo? ¿Por qué es importante esa diferencia?
- ¿Qué pasa cuando una IA toma decisiones sin tener empatía, es decir, sin ponerse en el lugar de los demás?
- ¿Qué problemas pueden aparecer si una IA no se da cuenta cuando se equivoca al tomar una decisión moral?
- ¿Por qué crees que DELPHI dio respuestas que sonaban raras, contradictorias o poco humanas?
- ¿Qué tiene la conciencia humana que una IA nunca podrá copiar? ¿Por qué es tan importante?
- ¿Qué peligros podrían aparecer si un gobierno usara una IA como DELPHI para decidir lo que está bien o mal?
- ¿Crees que una IA puede entender lo que significa perdonar de verdad? ¿O haría falta algo más… como una "actualización con alma incluida"?
- En tu opinión, ¿qué le faltó a DELPHI para no fallar? ¿Amor, sentido común o un poco de clase de valores?
2. Se puede ser buena persona sin tener una religión
3. La Iglesia debería adaptarse más a los cambios sociales
4. El ser humano es bueno por naturaleza
5. Los milagros no tienen sentido hoy, no existen.