Ciberseguretat en sistemes d’intel·ligència artificial: del risc tècnic a la responsabilitat organitzativa
- Ascicat
- 7 days ago
- 3 min de lectura

La intel·ligència artificial ja forma part del dia a dia de moltes organitzacions. Models que analitzen dades, automatitzen processos o donen suport a la presa de decisions s’estan integrant ràpidament en entorns empresarials i administratius. Però aquesta adopció accelera també un fet sovint infravalorat: la IA introdueix nous riscos de ciberseguretat que no poden gestionar-se amb els esquemes tradicionals.
Quan parlem de seguretat en IA, no ens referim només a protegir infraestructures o dades. Parlem de garantir la fiabilitat de models, la integritat dels processos d’inferència i el control de decisions automatitzades que poden tenir impactes legals, econòmics i socials rellevants.
Per què la ciberseguretat de la IA és diferent
A diferència dels sistemes informàtics convencionals, els sistemes d’intel·ligència artificial poden continuar funcionant aparentment amb normalitat mentre generen resultats incorrectes, esbiaixats o manipulats. Atacs com la manipulació de dades d’entrenament, la injecció de prompts o l’extracció de models no sempre provoquen una interrupció visible del servei, però sí poden degradar progressivament la seva fiabilitat i generar riscos difícils de detectar.
Això implica un canvi de paradigma: un sistema pot complir formalment amb controls clàssics de seguretat i, tot i així, comportar riscos significatius si no es governa adequadament l’ús de la IA.
La importància del cicle de vida
Un dels aspectes clau en la protecció dels sistemes d’IA és entendre que la seguretat no és una fase final, sinó un procés continu al llarg de tot el cicle de vida. Des del disseny inicial del cas d’ús fins a l’operació i manteniment del sistema, cada etapa introdueix riscos específics.
Decisions preses massa aviat —com automatitzar processos sense valorar l’impacte o utilitzar dades inadequades— poden generar problemes estructurals difícils de corregir posteriorment. Per això, la ciberseguretat aplicada a la IA ha d’integrar-se des del primer moment en la planificació i governança del projecte.
Gestió del risc i governança
La gestió del risc en sistemes d’IA requereix combinar metodologies consolidades de seguretat de la informació amb marcs específics per a la intel·ligència artificial. No n’hi ha prou amb identificar vulnerabilitats tècniques; cal mapar actius, amenaces i dependències, incloent-hi serveis de tercers i cadenes de subministrament, que sovint concentren una part important del risc.
En aquest context, la direcció de l’organització té un paper clau: definir nivells de risc acceptables, exigir evidències de controls i assumir que les decisions automatitzades també generen responsabilitats.
Amenaces emergents i mesures de control
Els sistemes d’IA s’enfronten a amenaces específiques com els atacs al prompt, la inversió de models, la filtració de dades sensibles o el consum incontrolat de recursos. Davant d’aquests riscos, la protecció ha d’anar més enllà de les mesures clàssiques i incorporar mecanismes com la monitorització contínua, els guardrails per a models de llenguatge, la detecció i resposta davant incidents o les proves de seguretat específiques per a IA.
L’objectiu no és eliminar completament el risc —cosa impossible—, sinó reduir-lo a nivells assumibles i controlats, amb una traçabilitat clara de les decisions preses.
Persones, impacte i compliment normatiu
Un element diferencial de la ciberseguretat en IA és la necessitat de posar les persones al centre. La gestió del risc organitzatiu ha de complementar-se amb l’avaluació de l’impacte sobre drets fonamentals, tal com recull el Reglament Europeu d’Intel·ligència Artificial. Això obliga a analitzar no només què pot fallar tècnicament, sinó com poden veure’s afectades les persones pels resultats del sistema.
En paral·lel, la formació i capacitació del personal esdevé un pilar essencial. Sense coneixement dels riscos i limitacions de la IA, cap mesura tècnica serà suficient.
Una IA segura no s’improvisa
La ciberseguretat aplicada als sistemes d’intel·ligència artificial exigeix una visió madura: estratègica, transversal i alineada amb la governança de l’organització. Integrar seguretat, gestió del risc i compliment normatiu no frena la innovació, sinó que la fa sostenible i responsable en el temps.
Font: Aquest article es basa en la Guia de ciberseguretat per a la protecció de sistemes d’Intel·ligència Artificial en l’entorn organitzatiu, elaborada en el marc del projecte Google cAIre, amb la contribució de professionals de l’àmbit de la ciberseguretat, entre els quals Marco Emilio Sanchez, advocat expert en drets digitals, intel·ligència artificial i ciberseguretat, doctor en tecnologies i soci d’ASCICAT. Pots descarregar-la al següent enllaç:




Comentaris