Vi este video donde se menciona que la IA puede “inventar” respuestas cuando no tiene suficiente información sobre un tema. Puede ser muy buena en lo que conoce, pero poco confiable en lo que no.
¿Creen que una IA será realmente confiable hasta que pueda decir abiertamente: “No tengo suficiente información sobre este tema”?