Tillstånds- och tillsynsverket övervakar användningen av artificiell intelligens inom social- och hälsovården
Tillstånds- och tillsynsverket styr och övervakar de AI-system med hög risk som används inom social- och hälsovården och vid behandlingen av sociala förmåner. Uppgiften grundar sig på EU:s förordning om artificiell intelligens, som har som mål att säkerställa att AI-system som släpps ut på marknaden eller tas i bruk inte äventyrar människors säkerhet, hälsa eller grundläggande fri- och rättigheter. Med AI-system med hög risk avses AI-system som kan ha en betydande skadlig inverkan på EU-medborgares hälsa, säkerhet och grundläggande rättigheter.
"Inom social- och hälsovården är AI-system med hög risk sådana system som är avsedda att användas av myndigheter eller på myndigheternas vägnar för att bedöma om en person är berättigad till exempelvis offentliga social- och hälsovårdstjänster", berättar överinspektör Essi Haglund vid Tillstånds- och tillsynsverket.
Tillstånds- och tillsynsverket övervakar i synnerhet de AI-system med hög risk som används för att till exempel bedöma om en person har rätt till FPA-förmåner, offentliga socialvårdstjänster eller hälso- och sjukvårdstjänster. Socialvårdens klientdatasystem eller hälso- och sjukvårdens patientdatasystem kan i sig vara ett AI-system med hög risk eller också en del av ett sådant system, dvs. en systemkomponent.
"AI innebär många möjligheter och till exempel i välfärdsområdena pågår flera pilotprojekt för artificiell intelligens. Vår uppgift som marknadskontrollmyndighet är nu i början att ge allmän handledning om kraven på AI-system med hög risk och om skyldigheterna för tillhandahållare av sådana system. Vi kommer att övervaka att AI-systemen inom social- och hälsovårdssektorn används på ett säkert sätt och att kraven som träder i kraft senare i slutet av 2026 efterlevs", berättar ledande sakkunnig Arttu Malava vid Tillstånds- och tillsynsverket.
För AI-system med hög risk införs omfattande skyldigheter innan de kan släppas ut på marknaden. Leverantören av ett AI-system ska bland annat säkerställa att AI-systemet överensstämmer med kraven och att det har genomgått en bedömning av överensstämmelse innan det släpps ut på marknaden eller tas i bruk. Förutom att det i förordningen om artificiell intelligens finns olika krav på systemen, ålägger den också skyldigheter för tillhandahållarna av AI-systemen. Dessa skyldigheter är till för att främja en tillförlitlig och säker användning av artificiell intelligens som utgår från användarens behov.
I Finland trädde befogenheterna för de myndigheter som övervakar verkställandet av EU:s förordning om artificiell intelligens i kraft den 1 januari 2026. Transport- och kommunikationsverket Traficom är den nationella kontaktpunkten och samordnar verkställandet av förordningen i Finland.
Mer information:
Överinspektör Essi Haglund, 0295 255 935
Ledande sakkunnig Arttu Malava, 0295 254 325
[email protected]