 
  
    Rotar un rectángulo para inscribirlo en un cuadrado ha revelado un 
    fenómeno llamativo:
    cuatro modelos de Inteligencia Artificial (IA), 
    Claude, Gemini, DeepSeek y ChatGPT, no solo fallaron,
    sino que cada uno propuso una solución de rotación distinta
    (52,77°, 49,47°, 37,26° y 37,57° respectivamente),
    demostrando que el error no fue sistemático.
    Y sólo uno acertó, Manus con su 45º exactos.
  
  
    Esta disparidad sugiere la existencia de algoritmos internos diferentes
    y/o distintas fuentes de datos de entrenamiento o del peso entre ellas,
    lo que contradice el rumor de que unos modelos han copiado a otros.
    Por ejemplo, aunque la diferencia entre 
    DeepSeek (37,26°) y ChatGPT (37,57°) es mínima (0,31°),
    sus enfoques son radicalmente distintos: 
    DeepSeek usa una solución analítica simplificada, mientras que 
    ChatGPT busca una solución exacta resolviendo numéricamente.
  
  
    De este mal resultado, cabría achacarme la culpa argumentando que 
    formulé mal la pregunta o que no sé crear prompts adecuados, que es, en 
    cierta forma, lo que intentó Gemini para autoexculparse. Sin embargo, si 
    ese fuera el caso: todos los modelos habrían dado respuestas erróneas 
    similares, o varios habrían coincidido en el mismo error, y Manus no 
    habría encontrado la solución correcta. Por tanto, en este caso, un 
    error en mi prompt no explica la divergencia observada.
  
  
    Yo, como humano, tengo que reconocer que la solución de 45° la obtuve a 
    la primera por una mezcla de práctica geométrica e intuición, el llamado 
    conocimiento superficial; pero si ahora me encerrara en una habitación 
    con lápiz y papel para deducirlo, lo haría, aunque tardaría, es un 
    conocimiento profundo que sé que está ahí, pero que tarda en emerger.
  
  
    Que uno solo de estos 5 modelos acierte no invalida el potencial de las 
    IA, pero sí expone la importancia de verificar sus resultados con 
    pensamiento crítico y recordar que, a menudo, la elegancia de una 
    solución reside en su simplicidad.
  
  
    A diferencia de otros paradigmas de representación del conocimiento 
    (como los sistemas basados en reglas o la búsqueda heurística),
    las redes neuronales adolecen de una opacidad intrínseca:
    Sus errores y comportamientos anómalos son
    notablemente difíciles de rastrear, interpretar y
    no son capaces de autoexplicarse
    ni de identificar el origen de sus divergencias
    (como ha ocurrido en este caso), lo que complica su depuración.
    Esta limitación, vinculada a su naturaleza estadística y de caja negra,
    supone un grave problema en aplicaciones donde la transparencia
    es esencial, por ejemplo,
    en el diagnóstico médico o en la aplicación de la Justicia.