IA y Seguridad AlimentarIA
Mucho se habla últimamente en torno a los contenidos generados mediante IA; desde los Deep-Fakes 1 que ponían en tela de juicio los usos legítimos de esta tecnología emergente, hasta una de las últimas polémicas donde una herramienta IA identificaba como comestible una especie de seta tóxica, con varias personas hospitalizadas de por medio.
Está claro que esta nueva tecnología ha llegado para quedarse y es por ello que debemos acostumbrarnos a un uso adecuado de la misma.
Aplicaciones de la IA a la Seguridad Alimentaria
En Seguridad Alimentaria se ha presentado como una revolución con infinitas posibles aplicaciones, entre las que podemos destacar, entre otras las siguientes:
- Análisis de grandes volúmenes de datos: La IA permite analizar grandes cantidades de datos, lo que facilita la toma de decisiones en Seguridad Alimentaria. Facilita la utilización del Big Data, ya que podemos verbalizar el análisis que necesitamos hacer sin necesidades de programación
- Detección de defectos y anomalías en envases: Puede aplicarse para la inspección ocular de los productos finales mediante cámaras.
- Predicción de riesgos: puede analizar datos guardados hasta la fecha, así como datos de diferentes sensores a tiempo real para predecir potenciales riesgo.
- Mejora de la trazabilidad: podría mejorar la trazabilidad de los productos alimenticios como herramienta complementaria al Blockchain.
- Reducción del desperdicio de alimentos: La IA puede ayudar a identificar oportunidades para la reducción del desperdicio de alimentos, mediante el análisis de mermas y perdidas a lo largo de los diferentes eslabones de la cadena de producción.
….entre otras.
No obstante, no debemos olvidar que las actuales IAs a las que tenemos acceso, son Modelos lingüísticos pensados para generar respuestas y mantener conversaciones…pero la información y los datos que utilizan siguen siendo los que existen en internet.
Es decir, es posible que una IA tome como fiable una fuente de internet con poco o nulo rigor.
Limitaciones de los modelos de IA
A pesar de las múltiples aplicaciones en el sector agroalimentario y del potencial de la IA en seguridad alimentaria, los modelos de IA actuales tienen una serie de limitaciones, entre las que se pueden destacar:
1. Consulta de fuentes de información poco rigurosas. Como comentábamos antes, la precisión de la información proporcionada por la IA depende de la calidad de las fuentes de datos utilizadas para su entrenamiento y consulta.
2. Malinterpretación de las consultas. Ya sea mediante un chatbot2 o directamente a la IA, la manera de hacer las preguntas o “Prompt”3, condiciona la respuesta dada, por lo que a una misma pregunta formulada de diferentes maneras, se pueden obtener respuestas diferentes.
3. NO sustituyen el criterio profesional. Una IA puede utilizarse para muchas tareas con resultados sorprendentes, pero para emitir una opinión experta o, por ejemplo, emitir un diagnóstico o prescribir un medicamento, es necesaria la supervisión de una persona profesional experta.
4. Limitaciones en la privacidad y confidencialidad. Las plataformas de IA se entrenan con cada interacción realizada con las personas usuarias, y existe el riesgo de que puedan aprender y reproducir información privada o confidencial. Aunque hay opciones de configuración para evitar esto, no es fácil si no se tiene experiencia en la utilización de estas herramientas.
5. Falta de transparencia en su funcionamiento. No sabemos exactamente cómo funcionan ni qué condiciones rigen estas inteligencias, algo que se guarda como el secreto del algoritmo de Google en su categorización de búsquedas, o el algoritmo de disposición de contenidos de META (Instagram).
Pongamos un ejemplo…
En verano de 2024 salto a los medios de comunicación una intoxicación por setas relacionada con una IA que había identificado una seta tóxica como comestible. Es algo que también puede pasar con cualquier información que se pueda solicitar a una IA sobre Seguridad Alimentaria. Por ello, debemos seguir consultando fuentes de información fidedignas para informarnos en este sentido o por lo menos contrastar la información que nos devuelve la IA.
Volviendo al ejemplo de las setas, un estudio realizado sobre Apps móviles disponibles descubrió que la app más precisa, identificaba correctamente las setas peligrosas sólo en el 44% de las veces.
Puede que llegue un momento de que una IA esté tan avanzada que pueda tener un margen de error mínimo, pero todavía ese futuro es lejano. Siendo así, no deberíamos dejar en manos de una IA la información recogida para la toma de decisiones doméstica en Seguridad Alimentaria, más aún si estamos al cargo o somos personas vulnerables.
¿Cómo se controla el uso de estas nuevas tecnologías?
Siendo una tecnología tan reciente, se están haciendo grandes esfuerzos para regularla. El Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024 establecen normas armonizadas en materia de inteligencia artificial.
Dicho reglamento define distintos niveles de riesgo de las IAs en función del uso y la información utilizada.
Por ejemplo, los “Chatbots” y los “Contenidos generados por IA” pueden ser considerados de RIESGOS ESPECÍFICOS DE TRASPARENCIA que están sujetos a obligaciones de información, como por ejemplo, informar al usuario de que está interactuando con una máquina (Chatbots) o etiquetar los contenidos generados por IA.
Seguidamente nos encontramos el RIESGO ALTO donde podrían encontrarse como ejemplo un “Software médico basado en IA” que debería cumplir con requisitos estrictos como la supervisión humana, la vigilancia poscomercialización, la trazabilidad técnica y documental, etc…
CONCLUSIÓN
El modelo de inteligencia artificial, en muchos casos, necesita instrucciones muy elaboradas y específicas para hacer un buen trabajo, lo que conocemos como “prompts” y pueden incurrir en errores.
Al igual que existen profesionales de la salud que tienen capacidad de diagnóstico y no son sustituibles por las búsquedas que hacemos en internet, igual deberíamos actuar con la información en Seguridad Alimentaria.
Es inevitable que las consultemos y estas IAs nos facilitan la búsqueda, pero pide siempre que mencionen las fuentes que ha utilizado para emitir la respuesta y consúltalas por si acaso.
Bibliografía
- Nobody knows how AI works | MIT Technology Review
- Reglamento Europeo de Inteligencia Artificial
- Mushrooming Risk: Unreliable A.I. Tools Generate Mushroom Misinformation – Public Citizen
- Making food systems more resilient to food safety risks by including artificial intelligence, big data, and internet of things into food safety early warning and emerging risk identification tools – Mu – 2024 – Comprehensive Reviews in Food Science and Food Safety
- Deep Fakes: Son archivos de vídeo, imagen o voz generados mediante inteligencia artificial que asemejan personas conocidas o ficticias ↩︎
- Chatbot: Programa que simula una conversación humana, o chat, a través de la inteligencia artificial ↩︎
- Prompt: Es una instrucción que se utiliza para interactuar con sistemas de inteligencia artificial ↩︎