Agents IA Ciberseguretat Formació Insights Parlem
🇪🇸 ES 🇬🇧 EN CA
HealthTech & IA 25 de marc de 2026 9 min de lectura

DeerFlow 2.0 en Sanitat: el que un SuperAgent open-source revela sobre el futur (i els riscos) de la IA als hospitals

DeerFlow 2.0 demostra el potencial dels agents multi-agent en sanitat: recerca autonoma, execucio de codi, memoria persistent. Pero desplegar-lo sense seguretat ni govern es un risc enorme. Analitzem oportunitats i perills.

CS
Carlos Salgado CEO & Co-founder · Delbion

Fa dues setmanes, DeerFlow 2.0 va arribar al numero 1 de GitHub trending. No es un chatbot mes. Es un framework open-source creat per ByteDance que coordina multiples agents d'IA per fer recerca, escriure codi, executar-lo dins contenidors Docker i generar informes complets de forma autonoma. Tot amb memoria persistent entre sessions.

Per a qui treballa en sanitat digital, la pregunta no es si aquesta tecnologia acabara entrant als hospitals. La pregunta es si estarem preparats quan ho faci. Perque les capacitats que DeerFlow demostra son exactament les que el sector necessita, pero tambe les que poden generar problemes gravissims si es despleguen sense controls.

Que es DeerFlow 2.0 i per que importa

DeerFlow es el que en el mon tecnic s'anomena un SuperAgent: un sistema que no depan d'un sol model de llenguatge, sino que orquestra multiples agents especialitzats per resoldre tasques complexes. Cada agent te un rol concret (investigador, programador, analista, redactor) i el sistema coordina les seves accions mitjancant un graf aciclic dirigit (DAG).

Les capacitats clau son:

  • Recerca autonoma amb multiples fonts: L'agent pot cercar a la web, a bases de dades academiques i a arxius locals per construir una visio completa d'un tema.
  • Execucio de codi en sandbox Docker: Pot escriure Python, R o qualsevol altre llenguatge, executar-lo dins un contenidor aillat i iterar sobre els resultats.
  • Memoria persistent entre sessions: Les conclusions d'una sessio es conserven per a la seguent. L'agent "recorda" el que ha aprenit.
  • Model-agnostic: Funciona amb GPT-4o, Claude, Gemini, Llama o qualsevol altre model compatible amb OpenAI API.
  • Totalment open-source: Codi obert amb llicencia MIT. Qualsevol organitzacio pot desplegar-lo en infraestructura propia.

Que ByteDance publiqui un framework d'aquesta complexitat en obert indica que la tecnologia multi-agent ha deixat de ser un prototip de laboratori. Ara es una eina de produccio que qualsevol pot adoptar. I aqui es on comencen les oportunitats i els perills per al sector salut.

On podria aportar valor en sanitat

Si agafem les capacitats de DeerFlow i les projectem sobre els fluxos de treball reals d'un hospital o d'una healthtech, hi ha almenys cinc arees on l'impacte podria ser rellevant.

🔍

Casos d'us amb major potencial

1. Revisions sistematiques de literatura medica. Avui, una revisio sistematica requereix setmanes de treball manual: cercar a PubMed, filtrar estudis, extreure dades, sintetitzar conclusions. Un sistema multi-agent pot fer la cerca inicial, filtrar per criteris d'inclusio/exclusio, extreure les dades rellevants i generar un primer esborrany en hores. El metge revisa i valida, en comptes de fer tot el treball de base.

2. Analisi de dades cliniques en entorns aillats. Amb l'execucio en sandbox Docker, es possible processar datasets clinics sense que les dades surtin del perimetro de seguretat de l'hospital. L'agent escriu el codi d'analisi, l'executa dins el contenidor i retorna els resultats. Les dades mai travessen la xarxa.

3. Automatitzacio d'informes de farmacovigilancia. Les farmaceutiques dediquen milers d'hores a monitoritzar events adversos i generar informes per a reguladors. Un agent pot rastrejar fonts de farmacovigilancia, creuar-les amb bases de dades internes i generar esborranys d'informes en format EMA/FDA.

4. Generacio de dashboards clinics. En comptes d'esperar setmanes perque el departament de TI crei un dashboard, un agent pot connectar-se a les fonts de dades, escriure el codi de visualitzacio i generar un dashboard interactiu en minuts.

5. Prototipatge rapid de pipelines de dades sanitaries. Per a healthtechs que necessiten validar hipotesis rapidament, un agent que escriu i executa codi pot accelerar drasicament el cicle de prototipatge d'integracions HL7/FHIR, transformacions de dades i validacions de qualitat.

El patro comu en tots aquests casos es el mateix: tasques que requereixen combinar recerca, processament de dades i generacio de documents. Exactament el que un sistema multi-agent fa be. Pero cap d'aquests casos es trivial des del punt de vista de seguretat i compliment normatiu.

Els riscos que ningu menciona

Quan DeerFlow es va convertir en trending a GitHub, la majoria d'articles van centrar-se en les capacitats. Gairebe cap va parlar dels riscos. I en sanitat, ignorar els riscos no es una opcio.

⚠️

Vectors de risc critics

Docker sandbox amb acces a filesystem i bash: El contenidor Docker de DeerFlow te acces al sistema de fitxers i pot executar comandes bash. Si es desplega dins la xarxa d'un hospital sense una segmentacio adequada, un agent compromes podria accedir a dades cliniques, sistemes d'EHR o infraestructura critica.

Memoria persistent entre sessions: La memoria persistent es una arma de doble tall. Si un agent processa dades de pacients en una sessio, aquestes dades podrien persistir i ser accessibles en sessions posteriors, vulnerant el principi de minimitzacio de dades del RGPD.

Execucio autonoma de codi: L'agent genera i executa codi sense intervencio humana. En un context sanitari, aixo significa que decisions que afecten dades de salut es prenen sense supervisio directa. Qualsevol error en el codi generat podria corrompre dades, generar conclusions incorrectes o exposar informacio sensible.

Model-agnostic = risc de regressio: El fet que DeerFlow funcioni amb qualsevol model de llenguatge es una virtut tecnica pero un risc operacional. Canviar de model pot alterar el comportament dels agents de formes impredictibles. Un model que funciona be per a analisi clinica pot generar resultats incorrectes amb un altre model, sense que el sistema detecti la diferencia.

Cap d'aquests riscos es teoric. Son consequencies directes de l'arquitectura del sistema. I en un entorn on una filtracio de dades de salut pot suposar multes de milions i danys irreparables als pacients, la prudencia no es conservadorisme: es responsabilitat professional.

El problema no es DeerFlow en si. Es que moltes organitzacions sanitaries veuen "open-source" i "Docker" i assumeixen que la seguretat ve de serie. No ve. Cal construir-la.

DeerFlow i el EU AI Act: zona d'alt risc

Qualsevol sistema d'IA desplegat en sanitat cau automaticament dins la categoria d'alt risc del Reglament Europeu d'Intel.ligencia Artificial (EU AI Act), segons l'Annex III. Aixo no es una interpretacio: es el text literal de la llei.

Alt Risc

Classificacio EU AI Act per a IA en sanitat (Annex III). Obligacions completes de conformitat, logging i supervisio humana.

Agost 2026

Data limit per al compliment complet del EU AI Act. Les organitzacions que despleguin sistemes d'alt risc sense conformitat s'enfronten a sancions de fins a 35 milions d'euros o el 7% de la facturacio global.

Article 4

Obligacio d'alfabetitzacio en IA per a tot el personal que interactua amb sistemes d'IA. En vigor des del febrer de 2025. Aplica a metges, infermers, tecnics i administratius.

Per a un framework com DeerFlow, les obligacions son particularment exigents. El sistema ha de mantenir registres complets de totes les decisions (logging), permetre supervisio humana efectiva en cada pas critic, i passar una avaluacio de conformitat abans del desplegament.

La memoria persistent de DeerFlow complica especialment el compliment del RGPD. El dret a l'oblit dels pacients requereix que les dades puguin ser eliminades de forma verificable. Si la memoria de l'agent ha incorporat informacio derivada de dades de pacients, esborrar nomes les dades originals pot no ser suficient.

I despres hi ha la questio de l'Article 4. Qualsevol professional sanitari que interactui amb un sistema basat en DeerFlow necessita formacio especifica en IA. No formacio generica sobre "que es la intel.ligencia artificial", sino formacio practica sobre com supervisar un agent autonome, com interpretar els seus resultats i com detectar errors. Aquesta obligacio ja esta en vigor i l'agost de 2026 comencen les sancions.

Com desplegar agents IA en sanitat sense riscos

La solucio no es evitar la tecnologia. Es desplegar-la amb les garanties adequades. Aqui tens els cinc passos que recomanem a les organitzacions sanitaries que volen aprofitar frameworks multi-agent com DeerFlow.

1

Auditoria de seguretat pre-desplegament

Abans de desplegar cap agent en produccio, cal fer una auditoria completa de la infraestructura. Aixo inclou pentesting de la xarxa on operara l'agent, analisi de la configuracio Docker, revisio dels permisos de filesystem i validacio de la segmentacio de xarxa. Un agent que pot executar codi dins la teva xarxa necessita controls mes estrictes que qualsevol aplicacio convencional.

2

Governanca de dades i memoria

Definir politiques clares sobre quines dades pot processar l'agent, durant quant de temps les pot retenir a la memoria persistent i com s'eliminen. Implementar mecanismes de purgat automatic de la memoria per complir amb el RGPD. Cada sessio amb dades de pacients ha de tenir un cicle de vida definit amb dates d'expiracio.

3

Supervisio humana en el bucle

El EU AI Act exigeix supervisio humana per a sistemes d'alt risc. En termes practics, aixo significa que cap resultat d'un agent pot ser adoptat sense validacio humana. Cal dissenyar els fluxos de treball perque l'agent generi propostes i un professional sanitari les revisi, aprovi o rebutgi. Automatitzacio total sense supervisio no es legal en sanitat dins la UE.

4

Logging i traçabilitat completa

Cada accio de l'agent ha de quedar registrada: quines fonts ha consultat, quin codi ha executat, quines decisions ha pres i per que. Sense aquest registre, no es possible fer l'avaluacio de conformitat que exigeix el EU AI Act ni investigar incidents posteriors. DeerFlow no inclou aquest nivel de logging de serie; cal construir-lo.

5

Formacio de l'equip

L'Article 4 del EU AI Act obliga a formar tot el personal que interactua amb IA. Per a equips sanitaris, aixo inclou entendre com funciona un agent autonome, quines son les seves limitacions, com interpretar resultats amb esperit critic i com reportar comportaments anomals. La bona noticia: la formacio en IA es pot finançar al 100% a traves de creditos FUNDAE per a empreses que cotitzen a la Seguretat Social.

Avaluacio gratuita

Vols desplegar agents IA en sanitat amb garanties?

En 60 minuts avaluem la teva infraestructura, identifiquem riscos i definim un full de ruta per desplegar IA en sanitat complint el EU AI Act i el RGPD.

Sol.licitar Avaluacio Gratuita →

Conclusio: l'eina no es el problema, la governanca si

DeerFlow 2.0 es una fita tecnica. Demostra que els sistemes multi-agent han madurat fins al punt de ser utils en entorns de produccio reals. Les capacitats que ofereix (recerca autonoma, execucio de codi, memoria persistent) son exactament les que el sector salut necessita per abordar problemes que avui consumeixen milers d'hores de treball manual.

Pero desplegar un framework com DeerFlow en un hospital sense auditoria de seguretat, sense governanca de dades, sense supervisio humana i sense formacio de l'equip no es innovacio. Es negligencia. La tecnologia no es el risc. El risc es adoptar-la sense les garanties que el context sanitari exigeix.

A Delbion portem anys ajudant organitzacions sanitaries a desplegar IA amb seguretat i compliment normatiu. Si esteu valorant incorporar agents IA als vostres processos, parleu amb nosaltres abans de desplegar res en produccio. Un assessment de 60 minuts us pot estalviar mesos de problemes.

Formacio bonificable FUNDAE

El teu equip necessita formacio en IA segura

L'EU AI Act exigeix alfabetitzacio IA per a tota la plantilla des d'agost 2026. Els nostres cursos cobreixen compliance, agents IA i governanca. FUNDAE pot subvencionar el 100% del cost.

Veure cursos disponibles Cost 0 EUR amb credit FUNDAE

Seguent pas

El teu hospital necessita agents IA segurs

Auditoria de seguretat, compliment EU AI Act i formacio per a equips sanitaris. Tot el que necessites per desplegar IA en sanitat amb garanties.

Forma el teu equip en IA · Subvencionat FUNDAE
Veure cursos