AI Act-Ready - Befähigung von produzierenden KMUs zum selbstständigen und sicheren Umgang mit dem AI Act und weiteren KI-Regularien

Wie kann Künstliche Intelligenz (KI) rechtssicher in kleinen und mittleren Unternehmen (KMU) genutzt werden? Mit dieser Frage beschäftigen sich seit Anfang des Jahres 2026 Mitarbeitende des Instituts für Rechtsinformatik (IRI) der Leibniz Universität Hannover am Lehrstuhl von Prof. Dr. Kramme in Zusammenarbeit mit dem Institut für Integrierte Produktion Hannover (IPH). Ziel des Forschungsprojektes ist es, die Anforderung an den Einsatz Künstlicher Intelligenz übersichtlich darzustellen und dadurch die Innovation und Effizienz in KMU zu fördern.

Im Rahmen des Projektes soll zunächst ein Leitfaden erarbeitet werden, der die, mit der Anwendung von KI einhergehenden, Pflichten verständlich darstellt. Im weiteren Verlauf soll eine Entscheidungshilfe hinsichtlich der Risikoklasse der eingesetzten KI in Form eines Software-Demonstrators für Unternehmen bereitgestellt werden. Auch wird eine Vorlage für die Erstellung unternehmensinterner KI-Leitfäden erarbeitet, welche es Unternehmen ermöglicht, den Gebrauch von KI durch Mitarbeitende zu regeln und so „Schatten-KIs“ entgegenzuwirken.

Der Einsatz von KI ist bereits für viele Menschen im Privaten alltäglich geworden. Systeme wie „ChatGPT“ werden daher auch immer mehr im beruflichen Kontext eingesetzt. Auch für Unternehmen bietet KI die Möglichkeit, Effizienzen zu steigern, Prozesse zu automatisieren, zu optimieren oder zu verschlanken. Dabei birgt der Einsatz von KI neben den Chancen, auch Risiken. Einem Risiko sind dabei insbesondere die Grundrechte der natürlichen Personen ausgesetzt, welche mit der KI in Berührung kommen.

Die KI-VO als wesentliches Regulierungselement

Diesem Thema hat sich die Europäische Union (EU) mit der KI-Verordnung (KI-VO (EU) 2024/1689) angenommen. Die KI-VO soll den verantwortungsvollen Umgang mit KI sicherstellen, die Innovation im Bereich der KI fördern und die Funktion des Europäischen Binnenmarktes stärken. Außerdem soll die KI auf den Menschen ausgerichtet sein und ein hohes Maß an Schutz für die Sicherheit, Gesundheit und die in der Grundrechte Charta verankerten Grundrechte natürlicher Personen bieten (vgl. Art. 1 KI-VO). Die Verordnung enthält sowohl Verpflichtungen für Betreiber, Anbieter und Einführer von KI-Systemen als auch Sanktionen, sollten diesen Verpflichtungen nicht nachgekommen werden. Der Umfang der Verpflichtungen hängt dabei maßgeblich von dem Risiko ab, welches vom KI-System ausgeht, aber auch von weiteren Faktoren wie der Rolle des entsprechenden Unternehmens und eventuell greifenden Ausnahmen.

Der europäische Gesetzgeber gliedert dabei in vier verschiedene Risikoklassen: KI-Systeme mit „unannehmbarem Risiko“, „hohem Risiko“, „mittlerem Risiko“ und „minimalem Risiko“. KI-Systeme mit unannehmbarem Risiko sind dabei in der EU grundsätzlich nicht zulässig, dazu zählen unter anderem nach Art. 5 KI-VO das Social Scoring oder Systeme, welche die Vulnerabilität einer natürlichen Person ausnutzt, um das Verhalten dieser Person in einer Weise zu verändern, das ihr oder einer weiteren Person schadet. Alle weiteren Risikoklassen sind nicht grundsätzlich verboten, bringen jedoch stark variierende Anforderungen an Sorgfalt und Transparenz für Betreiber und Anbieter mit sich.

Über die KI-VO hinaus existieren außerdem noch weitere KI-Regulatorien, wie zum Beispiel die ISO 42001, der Code of Conduct der G7 oder die UNESCO-Empfehlung zur Ethik der Künstlichen Intelligenz in Deutschland. Auch sind Aspekte aus dem Datenschutz (insbesondere der DSGVO) und dem Urheberrecht zu beachten.

Teilnehmende Unternehmen gesucht

Für dieses Forschungsprojekt suchen das IPH und das IRI noch interessierte, produzierende KMU. Sie erhalten die Möglichkeit im Projektbegleitenden Ausschuss (PA) sich mit KI-Expert*innen und Jurist*innen über die Anwendung in Ihrem Unternehmen und die Anforderungen an Sie im Rahmen der KI-VO auszutauschen.

Wenn Sie KI bereits in Ihrem Unternehmen nutzen oder dies für die nahe Zukunft planen melden Sie sich gerne bis zum 31.03.2026 bei Ole Schmieta (IRI) unter ole.schmieta@iri.uni-hannover.de oder Denise Wullfen (IPH) unter wullfen@iph-hannover.de.