AI-Act 2025
Den 13 februari 2024 röstade de inre marknads- och medborgerlighetsutskotten med 71-8 (7 avstående) för att godkänna resultatet av förhandlingarna med medlemsstaterna om AI-lagen. Du som utvecklar en lösning baserad på artificiell intelligens eller integrerar AI i dina processer, produkter eller tjänster kommer att behöva följa en ny förordning, AI-lagen.
Här är en sammanfattning av de praktiska konsekvenserna av denna förordning.
AI-lagen syftar till att säkerställa att artificiella intelligenssystem och modeller som marknadsförs inom Europeiska unionen används på ett etiskt, säkert och respektfullt sätt och följer EU:s grundläggande rättigheter.
Vad behöver du ha koll på?
AI-lagen fastställer produktreglering, från CE-märkning till förbud, som är tillämpliga på AI-system och modeller som marknadsförs.
Notera att forskningsaktiviteter utan kommersiella mål inte påverkas.
Vem påverkas och behöver säkerställa överensstämmelse?
Alla leverantörer, distributörer eller användare av AI-system och modeller, juridiska personer (företag, stiftelser, föreningar, forskningslaboratorier etc.), som har sitt registrerade kontor inom Europeiska unionen eller om de är belägna utanför EU, och marknadsför sina AI-system eller modeller inom Europeiska unionen.
Är alla AI-system och modeller föremål för "produkt"-reglering?
✅ Nivån på regleringen och de relaterade skyldigheterna beror på risknivån som AI-systemet eller modellen utgör.
Det finns fyra risknivåer och fyra nivåer av överensstämmelse:
🔴 Oacceptabel risk AI:
System och modeller med oacceptabel risk är förbjudna och kan varken marknadsföras eller användas inom Europeiska unionen eller exporteras.
❗ Hög risk AI:
Hög risk AI-system och modeller måste erhålla CE-märkning för att marknadsföras.
⭕ Låg risk AI:
Låg risk AI-system och modeller måste uppfylla informations- och transparenskrav gentemot användare.
💚 Minimal risk AI:
Minimal risk AI-system och modeller kan följa uppförandekoder.
Särskilda skyldigheter gäller för generativa AI och utvecklingen av allmänna ändamål AI (GPAI), med olika regler beroende på om modellen är öppen källkod eller inte, och andra underordnade kriterier (beräkningskraft, antal användare etc.).
När är deadline?
Olika deadlines, från 6 till 36 månader, gäller beroende på risknivån för AI-system och modeller. Oavsett deadline är det avgörande att vara förberedd och förutse överensstämmelse, vilket kan påverka företagens tekniska, produkt- och rättsliga planer.
Hur kan vi hjälpas åt att förbereda oss? Har ni redan börjat förbereda er?
Referens och läs mer här:
https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
