
Intellipig: La IA que lee el rostro de los animales para medir su dolor
Sistemas de visión artificial ya superan a los veterinarios expertos detectando el sufrimiento en cerdos, gatos y caballos. Así funciona la tecnología que decodifica las emociones animales.
Sienten dolor. Pero no pueden decirlo. La IA acaba de darles voz.
Charles Darwin ya lo advirtió en el año 1872 en su obra sobre las emociones: las expresiones faciales constituyen un lenguaje universal compartido entre la gran mayoría de los mamíferos. La biología evolutiva ha demostrado que compartimos el 38% de nuestros movimientos faciales con los perros, una cifra que se sitúa en el 34% cuando hablamos de los gatos y que se dispara hasta un asombroso 47% en el caso de los caballos y los primates. Las señales están ahí, dibujadas en la tensión de un hocico o en la inclinación de una oreja. El verdadero problema es que los humanos somos biológicamente lentos y torpes para interpretar estas sutiles contracciones musculares.
Para ponerlo en perspectiva, un experto humano entrenado tarda una media de 100 segundos en analizar una sola imagen estática de un animal para determinar su estado emocional. Si hablamos de procesar un vídeo de apenas medio minuto, el tiempo de análisis se dispara hasta las dos o tres horas de trabajo ininterrumpido. La inteligencia artificial, sin embargo, es capaz de realizar este mismo escrutinio casi al instante, abriendo la puerta a una revolución sin precedentes en el cuidado animal.
Intellipig: el granjero algorítmico que nunca duerme
El primer gran salto a escala industrial viene de la mano de investigadores de la Universidad de West of England Bristol y del Scotland’s Rural College, quienes han desarrollado y puesto a prueba Intellipig. Se trata de un avanzado sistema de visión artificial diseñado específicamente para granjas que es capaz de identificar a cada cerdo de forma individual con un 97% de precisión.
El funcionamiento de este sistema altera por completo la dinámica tradicional de la ganadería. Cuando el animal se acerca a su comedero habitual, una cámara de alta resolución captura su rostro. En menos de un segundo, el modelo de inteligencia artificial lo reconoce en su base de datos, le prepara una ración de comida totalmente personalizada y, lo que es verdaderamente disruptivo, escruta su expresión facial en busca de señales de estrés, enfermedad o malestar emocional. Si el algoritmo detecta que el animal está sufriendo, el sistema lanza una alerta inmediata al ganadero, permitiendo una intervención veterinaria temprana que antes dependía puramente de la intuición o de síntomas físicos mucho más avanzados.
Superando el ojo clínico del veterinario
Pero la revolución de la biometría animal no se limita en absoluto a las granjas porcinas. En la Universidad de Haifa, el equipo liderado por la científica Anna Zamansky ha desarrollado modelos de aprendizaje profundo capaces de detectar el dolor en gatos con un 77% de precisión y en ovejas con un 82%.
Para entender la magnitud de este avance, es necesario compararlo con el estándar de oro actual: los propios profesionales médicos. Cuando los veterinarios expertos fueron sometidos exactamente a la misma prueba visual con los mismos animales, solo acertaron el 70% de las veces. La máquina ya ve cosas que el ojo clínico humano, respaldado por años de carrera y experiencia, es incapaz de percibir.
Al otro lado del mundo, en la Universidad de São Paulo, los investigadores han llevado esta premisa al mundo equino. Un sistema entrenado exhaustivamente con 3.000 imágenes de caballos es capaz de diagnosticar dolor de forma correcta el 88% de las veces. El hito no es meramente estadístico: en varios casos documentados durante el estudio, la inteligencia artificial logró identificar dolor que los propios veterinarios habían pasado por alto en sus revisiones rutinarias.
Mapeando la geometría del sufrimiento
¿Cómo consigue un algoritmo entender el sufrimiento de una especie distinta? El entrenamiento de estos modelos fundacionales sigue una lógica estrictamente geométrica. En una primera fase, anotadores humanos marcan puntos clave en miles de fotografías de rostros animales: los bordes exactos de los ojos, la inclinación milimétrica de las orejas, la tensión muscular del hocico o la dilatación de las fosas nasales.
Una vez alimentada con esta inmensa cantidad de datos, la inteligencia artificial aprende a localizar estas coordenadas de forma completamente autónoma. A partir de ahí, el sistema mide las distancias milimétricas entre ellas para detectar patrones invisibles a simple vista. Un gato que tensa ligeramente el hocico o un caballo que rota las orejas hacia fuera generando pequeñas arrugas sobre los ojos dejan de ser gestos anecdóticos para convertirse en vectores matemáticos. Estos patrones se cruzan en tiempo real con escalas de dolor validadas por la ciencia, arrojando un diagnóstico objetivo e imparcial.
Más allá del dolor: un diccionario emocional
El objetivo a largo plazo de esta tecnología no es únicamente mitigar el sufrimiento físico en entornos clínicos o ganaderos. La ambición de los investigadores es decodificar el espectro completo de la psique animal. Ya existen modelos en fase de pruebas que distinguen si un perro está contento o frustrado con un 89% de acierto.
En el caso de los felinos, la aplicación de la visión artificial ha permitido a los etólogos catalogar hasta 276 expresiones faciales distintas, revelando una complejidad comunicativa que ignorábamos por completo. Incluso en caballos, un sistema experimental ha logrado diferenciar entre frustración y decepción, dos estados emocionales profundamente complejos que hasta hace muy poco parecían exclusivos de la psicología humana.
El equipo de Zamansky está construyendo en este momento bases de datos masivas de rostros de perros, gatos, caballos y primates en distintos estados emocionales. El horizonte de esta investigación es tan claro como ambicioso: crear un lector facial universal que nos permita entender a los animales con una profundidad inédita, proporcionando un cuidado verdaderamente individualizado.
Fuentes: → TechCrunch - Researchers are training AI to interpret animal emotions → Science - Can AI read pain and other emotions in your dog’s face?
Si un algoritmo ya es capaz de leer el dolor en la cara de un animal con más precisión que un veterinario experto, ¿cuánto falta para que tengamos que replantearnos por completo nuestra relación con ellos?
Artículos relacionados

GPT-5.2 Pro resuelve cuatro problemas de Erdős y empuja la frontera matemática
La inteligencia artificial logra resolver enigmas matemáticos que llevaban décadas abiertos. Un hito verificado por Terence Tao que demuestra que los modelos ya no solo buscan información, sino que razonan.

Gemini 3.1, GPT-5.4 y Sonnet 4.6: El mes en que la IA aprendió a trabajar
Un repaso a los cinco grandes lanzamientos del último mes. Google, Anthropic y OpenAI dejan clara su nueva estrategia: modelos que no solo piensan mejor, sino que automatizan el trabajo de oficina.

El videoclip de Quevedo 'Ni borracho' esconde un secreto: sus mejores escenas están hechas con IA
El himno de los Carnavales de Canarias 2026 integra efectos especiales generados por la suite de inteligencia artificial de la malagueña Freepik, marcando un antes y un después en la producción audiovisual.

