KI im Jugendmedienschutz und Glücksspielrecht

Der Einsatz künstlicher Intelligenz im regulierten Glücksspiel war ein Themenschwerpunkt auf dem Symposium Glücksspiel 2024 an der Universität Hohenheim.

In der täglichen Praxis begegnet uns künstliche Intelligenz vor allem im Bereich der Identifizierung sowie im Kontext des Monitorings und der Voraussage zur Spielsucht- und Geldwäscheerkennung, so Gunter Fricke, Geschäftsführer der insic GmbH.

Die KJM veröffentlichte am 15.02.2024 eine Einordnung des Themas unter der Überschrift „Gutachten warnt: Dringender Handlungsbedarf zum Schutz von Minderjährigen vor KI-Risiken, Gefahr der Desorientierung bei Kindern und Jugendlichen / Forderung nach Gesetzesänderung“.

Diese Veröffentlichung basiert auf einem richtungsweisenden Gutachten zur Nutzung künstlicher Intelligenz im Kinder- und Jugendmedienschutz vom Institut für Europäisches Medienrecht (EMR).

Die öffentliche Diskussion für den Themenkomplex Identifizierung und Authentifizierung wurde damit auch auf unser Themengebiet des regulierten Glücksspiels gelenkt.

Im vom EMR erstellten Gutachten „Kinder- und Jugendmedienschutz und Künstliche Intelligenz – Herausforderung für den Jugendmedienschutz-Staatsvertrag (JMStV)?“ beleuchtet Dr. Jörg Ukrow, LL.M.Eur, geschäftsführendes Vorstandsmitglied des EMR, im Auftrag der Kommission für Jugendmedienschutz (KJM) den Stand des Schutzes vor KI-Risiken und Reformüberlegungen.

Wir erlauben uns, fünf Absätze aus dem insgesamt interessanten Gutachten zu zitieren, die für die Ausgestaltung unserer Systeme konkrete Bedeutung haben:

„40. Sowohl auf der Ebene der Identifizierung als auch auf der Ebene der Authentifizierung von Mediennutzenden als Instrumente des technischen Jugendmedienschutzes ist der Einsatz von KI zur Gewährleistung des jeweiligen Schutzzweckes möglich und im Übrigen auch bereits durch die Kommission für Jugendmedienschutz (KJM) als Option anerkannt. Im Lichte der durch KI eröffneten Möglichkeiten der Gesichtserkennung erscheint fraglich, ob es einer face-to-face-Kontrolle zur Identifizierung fortdauernd bedarf.

41. Im Hinblick auf die Parallelität der Kriterien für geschlossene Benutzergruppen im Jugendmedienschutz- und Glücksspielrecht kommt auch in der Perspektive einer Unterstützung der jeweiligen Aufsicht durch den Einsatz von KI den Ausführungen zu Identifizierung und Authentifizierung in den Jugendschutzrichtlinien der Landesmedienanstalten wie im Raster der KJM zu Altersverifikationssystemen (AVS-Raster) Referenzqualität auch für die glücksspielrechtliche Aufsichtspraxis mit Bezug zum Jugendschutz zu. Über die in § 9 Abs. 3a GlüStV 2021 geregelte Pflicht zur Zusammenarbeit von Glückspielaufsicht und Landesmedienanstalten kann der Gleichlauf in den Regelwerken auch in der KI-bezogenen Perspektive im Vollzug zusätzlich effektuiert werden. Dieser Gleichlauf sollte deshalb nach Möglichkeit auch in Bezug auf die Frage entwickelt werden, unter welchen Randbedingungen welches KI-System in die jeweils adressierte Altersverifikation eingebunden werden kann.

42. Um Anbietern von technischen Mitteln und Inhalteanbietern eine gewisse Planungs- und Rechtssicherheit zu verschaffen, kann diesen auf „Antrag“ durch die KJM eine Positivbewertung darüber erteilt werden, ob sie durch ihr technisches Mittel, welches sie als Zugangsschutz bei entwicklungsbeeinträchtigenden Angeboten vorschalten bzw. einsetzen, ihrer Pflicht aus § 5 Abs. 3 Satz 1 Nr. 1 JMStV entsprechen. Dies gilt auch für technische Mittel, die auf KI (teilweise) gestützt sind.

56. Das seitens der EU vorgesehene Gesetz für künstliche Intelligenz (AI Act) stellt den ersten internationalen Versuch einer rechtsverbindlichen, unmittelbar Rechte und Pflichten begründende Regulierung von KI dar – ein Versuch, dem für diesen Themenkreis vergleichbare Vorbildrolle zukommen könnte wie der DS-GVO für den Bereich des Datenschutzes. Der vorgeschlagene AI Act baut auch nach der politischen Verständigung im Trilogverfahren vom 8. Dezember 2023 konzeptionell auf einem risikobasierten Ansatz auf, bei dem zwischen vier Risikostufen unterschieden wird:

  • einem inakzeptablen Risiko mit der Folge des absoluten Verbots betreffender Praktiken (Art. 5)
  • einem hohen Risiko (Art. 6 ff.)
  • einem begrenzten Risiko (Art. 52)
  • einem minimalen oder nicht vorhandenen Risiko (Art. 69)."

...
58. Mit dem in Art. 5 Abs. 1 Buchst. ba) der Position des Europäischen Parlaments zum AI Act enthaltenen grundsätzlichen Verbot biometrischer Kategorisierungen, bei dem es auch im Ergebnis der politischen Verständigung vom 8. Dezember 2023 im Trilog-Verfahren bleiben dürfte, droht ein zeitgemäßer, auch KI-Einsatz integrierender technischer Kinder- und Jugendmedienschutz beeinträchtigt zu werden, wie ihn jüngst die KJM durch eine positive Bewertung von AVS-Konzepten unter Einsatz biometrischer Mittel befördert hat. …"

Diese neuerliche Diskussion und die Entscheidung des Bundesrates vom 26.05.2023 zur Begrenzung des Einsatzes von KI in der öffentlichen Verwaltung hat uns darin bestärkt, vorerst die Nutzung unserer Vorhersagemodelle auf Basis des AWS ML Model bei der insic auszusetzen, da die zugrundeliegenden Machine-Learning-Modelle und deren Quellen sich einer Beurteilung durch uns zunächst entziehen.

Wir bleiben gespannt, unter welchen Bedingungen der Einsatz von KI-Komponenten insbesondere auch in der Vorhersage von (problematischem) Spielverhalten im regulierten Glücksspiel zukünftig zulässig sein wird, wenn schon die Herleitung und damit auch die Voraussagen unklar sind. Insbesondere die Anreicherung bestehender globaler Modelle mit Daten aus dem regulierten Spielbetrieb zur allgemeinen Nutzung bedarf offenbar konkreter Vorgaben.

Gunter Fricke, 24.03.2024