Sam Altman finalmente se enfrenta al mayor problema de ChatGPT y ha evitado el debate con retórica. Cualquiera que haya utilizado la Inteligencia Artificial (IA) de OpenAI con el debido cuidado y responsabilidad ya se habrá encontrado con un problema común en sus respuestas: “alucinaciones”.
Se trata de cualquier respuesta generada por la plataforma que suene absolutamente convincente, articulada e incluso justificada con supuestos datos, argumentos y fuentes. Pero investigándolas es posible comprobar que la respuesta es simplemente una invención de la IA.
ChatGPT en su versión más reciente y variaciones más robustas como Chat de Bing Pueden llegar incluso a integrar enlaces a las supuestas fuentes de información que se tomaron como base para las respuestas generadas.
Pero al confrontar a la plataforma por la inexactitud de la información, lo más probable es que el chatbot acabe expulsando al usuario y cortando todo diálogo. Lo que poco a poco se ha convertido en un problema con el crecimiento de la popularidad de la plataforma.
Ahora el CEO de OpenAI ha sido confrontado directamente sobre este fenómeno y finalmente obtuvimos una respuesta. Aunque no es realmente convincente. Al contrario, nos recuerda la forma exacta en que su IA evita los hechos.
Sam Altman justifica las “alucinaciones” de ChatGPT: prefiere verlas como una característica distintiva y no como un error
El ciclo de conferencias de Fuerza de sueño 2023donde una serie de figuras de la industria de las Tecnologías de la Información (TI) se reunieron para conversar sobre temas de actualidad.
El acto empezó fuerte con una intervención de Marc BenioffCEO de Salesforce, anfitrión del evento, quien señaló directamente que el término “alucinaciones”, para referirse a las respuestas falsas pero convincentes de cualquier IA, parecía más bien un eufemismo para evitar decir que son “mentiras”.

Posteriormente, el ejecutivo mantuvo una conversación cara a cara con Sam Altman, CEO de OpenAI, responsable de ChatGPT, donde se presenta con mayor frecuencia este fenómeno de imprecisiones.
Lo curioso aquí es que el ejecutivo acabó respondiendo a este punto de polémica con un planteamiento que busca revertir la visión del problema:
“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que te dejan boquiabierto. Son más una característica o característica de sus funciones que un error o falla. Si quieres buscar algo en una base de datos, ya hay cosas más útiles para hacerlo”.
La respuesta de Altman es curiosa, particularmente cuando intenta vender ChatGPT como una herramienta de vanguardia que aliviaría aquellas bases de datos que sí tienen la información precisa.
Sam Altman defiende las “alucinaciones” de ChatGPT y la IA al dar respuestas falsas – Noticias
Sam Altman finalmente se enfrenta al mayor problema de ChatGPT y ha evitado el debate con retórica. Cualquiera que haya utilizado la Inteligencia Artificial (IA) de OpenAI con el debido cuidado y responsabilidad ya se habrá encontrado con un problema común en sus respuestas: “alucinaciones”.
Se trata de cualquier respuesta generada por la plataforma que suene absolutamente convincente, articulada e incluso justificada con supuestos datos, argumentos y fuentes. Pero investigándolas es posible comprobar que la respuesta es simplemente una invención de la IA.
ChatGPT en su versión más reciente y variaciones más robustas como Chat de Bing Pueden llegar incluso a integrar enlaces a las supuestas fuentes de información que se tomaron como base para las respuestas generadas.
Pero al confrontar a la plataforma por la inexactitud de la información, lo más probable es que el chatbot acabe expulsando al usuario y cortando todo diálogo. Lo que poco a poco se ha convertido en un problema con el crecimiento de la popularidad de la plataforma.
Ahora el CEO de OpenAI ha sido confrontado directamente sobre este fenómeno y finalmente obtuvimos una respuesta. Aunque no es realmente convincente. Al contrario, nos recuerda la forma exacta en que su IA evita los hechos.
Sam Altman justifica las “alucinaciones” de ChatGPT: prefiere verlas como una característica distintiva y no como un error
El ciclo de conferencias de Fuerza de sueño 2023donde una serie de figuras de la industria de las Tecnologías de la Información (TI) se reunieron para conversar sobre temas de actualidad.
El acto empezó fuerte con una intervención de Marc BenioffCEO de Salesforce, anfitrión del evento, quien señaló directamente que el término “alucinaciones”, para referirse a las respuestas falsas pero convincentes de cualquier IA, parecía más bien un eufemismo para evitar decir que son “mentiras”.

Posteriormente, el ejecutivo mantuvo una conversación cara a cara con Sam Altman, CEO de OpenAI, responsable de ChatGPT, donde se presenta con mayor frecuencia este fenómeno de imprecisiones.
Lo curioso aquí es que el ejecutivo acabó respondiendo a este punto de polémica con un planteamiento que busca revertir la visión del problema:
“Gran parte del valor de estos sistemas está fuertemente relacionado con el hecho de que te dejan boquiabierto. Son más una característica o característica de sus funciones que un error o falla. Si quieres buscar algo en una base de datos, ya hay cosas más útiles para hacerlo”.
La respuesta de Altman es curiosa, particularmente cuando intenta vender ChatGPT como una herramienta de vanguardia que aliviaría aquellas bases de datos que sí tienen la información precisa.
Sam Altman defiende las “alucinaciones” de ChatGPT y la IA al dar respuestas falsas – Noticias