# taz.de -- KI-Überwachung im Nahverkehr: Big Brother in der Tram
> Die Bremer Straßenbahn stellt ein KI-Tool vor, das aggressives Verhalten
> erkennen soll. Es soll helfen, schneller einzugreifen und Gewalt
> vorzubeugen.
(IMG) Bild: Soll in Bremen mit künstlicher Intelligenz bei Gewalt Alarm schlagen: Kuppelkamera an der Decke eines Bahnwaggons
Neun bis elf [1][digitale Kameraaugen] pro Wagen wachen über die
Geschehnisse in den Bremer Stadtbahnen. Bis Ende 2026 soll in diese Kameras
eine künstliche Intelligenz (KI) eingebaut werden, die potenzielle
Gefahrensituationen wie aggressives Verhalten und Gewalttaten in Echtzeit
erkennen können soll.
Die Technologie mit dem Namen AI-Watch wurde von dem Bremer Unternehmen
Just Add AI entwickelt. Zunächst soll das System in 43 Bahnen der Bremer
Straßenbahn AG (BSAG) installiert werden. Damit ist Bremen bundesweit
Vorreiter, hieß es am Donnerstag auf einer Pressekonferenz, auf der das
Projekt vorgestellt wurde. KI-gestützte Kamerasysteme in Fahrzeugen des
ÖPNV gebe es bisher noch in keinem anderen Bundesland.
Das Projekt erhielt eine Unbedenklichkeitserklärung der
Landesdatenschutzbeauftragten. Die Daten sollen direkt im Fahrzeug
verarbeitet und personenbezogene Daten nicht zum Training der
Treffsicherheit der KI genutzt werden. Zudem werden die Gesichter der
erfassten Personen in dem Moment verpixelt, in dem ein Bild an die
Leitstelle übertragen wird. Kleidung, Haut- und Haarfarbe sowie das
Geschlecht der erfassten Personen sind, so hieß es, weiterhin erkennbar.
## Polizei kann Bildmaterial anfordern
Die Bilder aus den Überwachungskameras werden für 72 Stunden auf einer
lokalen Festplatte im Fahrzeug gespeichert. Die Polizei kann das nicht
anonymisierte Bildmaterial weiterhin anfordern.
AI-Watch soll dabei helfen, in gefährlichen Situationen schneller
einschreiten zu können, und es soll gewaltpräventiv wirken. „Ich habe ein
verändertes subjektives Empfinden bezüglich des Sicherheitsgefühls in
unseren Fahrzeugen festgestellt“, sagt der Vorstand Technik bei der BSAG,
Thorsten Harder. Er betont, dass die Fahrzeuge der BSAG bereits aktuell ein
sicherer Ort seien.
Das Gegenteil bewies ein [2][queerfeindlicher Übergriff], der sich im
Dezember 2025 in einer Bremer Straßenbahn kurz vor dem Hauptbahnhof
ereignete. Ein Mann hatte dort zwei junge lesbische Frauen nach einem Kuss
zum Teil bewusstlos geschlagen. In genau solchen Situationen könnte die KI
nun ein schnelleres Eingreifen ermöglichen, so die Verantwortlichen.
## Hamburg überwacht Plätze mit KI
Erkennt die KI eine Gefahrensituation, sendet sie einen Impuls. Dieser
sorgt für ein Signal in der Fahrzeugkabine und schaltet die Bilder der
Überwachungskameras in die Leitstelle. Dort können Mitarbeitende dann
beurteilen, ob es sich um eine echte Gefahrensituation handelt.
„So kann schneller gehandelt werden und es gibt wenig, im besten Fall keine
Eskalation“, sagte Bremens Verkehrssenatorin Özlem Ünsal (SPD). Außerdem
sollen Fahrer*innen so auf Situationen reagieren können, die ihnen ohne
die KI in der Fahrzeugkabine verborgen geblieben wären.
[3][Auch in Hamburg arbeitet man bereits seit dem Sommer 2023 mit
sogenannter intelligenter Videoüberwachung]. Dazu wurde das Polizeigesetz
angepasst. Das System, das sowohl am Hansa- als auch am Hachmannplatz
eingeführt wurde, zeigt Polizeibeamt*innen in einer potenziellen
Gefahrensituation Bilder von Personen, die als Figuren dargestellt werden.
## Schlägereien mit Umarmungen verwechselt
In Hamburg kam es auch zu Situationen, in denen die KI eine Umarmung mit
einer Schlägerei verwechselte. Laut Polizei sei dies darauf zurückzuführen,
dass sich die KI noch in der Trainingsphase befindet.
AI-Watch soll jedoch in der Lage sein, Umarmungen von Schlägereien zu
unterscheiden. Das zumindest behauptet die BSAG. Das System sei in
sogenannten Theaterfahrten auf die Bewertung unterschiedlicher Situationen
trainiert worden. Auseinandersetzungen und Übergriffe wurden dafür wie
Schläge gegen den Kopf nachgestellt.
Dabei schlug die KI auch an, als eine Person gegen das Fahrerhaus schlug,
was aus der Entfernung für eine KI wie ein Winken aussehen könnte. Grund
dafür sei, dass AI-Watch auch die Reaktionen anderer Fahrgäste analysiert.
Wenn sich diese etwa umdrehen, ist die Chance höher, dass die KI Alarm
schlägt.
In einer ersten Pilotphase, die im April 2025 begann, wurde die KI ohne
Echtzeitübertragung getestet. Dabei erkannte sie 16 potenzielle
Gefahrensituationen. Im Abgleich mit den Betriebsberichten ließen sich
allerdings nur vier davon bestätigen. Bei den übrigen zwölf Situationen
handelte es sich entweder um nicht gemeldete Situationen oder um
Fehlsignale.
19 Feb 2026
## LINKS
(DIR) [1] /Videoueberwachung/!t5012516
(DIR) [2] /Angriff-auf-lesbisches-Paar/!6136048
(DIR) [3] /Kuenstliche-Intelligenz-im-Einsatz/!6099559
## AUTOREN
(DIR) Mara Schaaf
## TAGS
(DIR) Schwerpunkt Künstliche Intelligenz
(DIR) Straßenbahn
(DIR) Anti-Aggressions-Maßnahme
(DIR) Videoüberwachung
(DIR) Öffentlicher Nahverkehr
(DIR) Reden wir darüber
(DIR) Social-Auswahl
(DIR) Palantir
(DIR) Schwerpunkt Emmanuel Macron
(DIR) Schwerpunkt Künstliche Intelligenz
## ARTIKEL ZUM THEMA
(DIR) Polizei in Hamburg: Wenn die KI eine Umarmung als Schlägerei deutet
Die Polizei Hamburg will Videoüberwachung mit Künstlicher Intelligenz
aufrüsten. Die Technik ist umstritten – nicht nur aus Datenschutzgründen.
(DIR) Künstliche Intelligenz: Wie viel Regulierung ist sinnvoll?
Die Welt ringt um ihren Umgang mit KI-Technologien. Auf einem Gipfel in
Paris, zeigte sich, wo es in Europa damit hingeht.
(DIR) Diskriminierung durch KI: Der Algorithmus sagt Nein
Ein Gutachten weist auf mangelnden Schutz vor Diskriminierung hin, unter
anderem durch KI – und zeigt auf, was sich besser machen ließe.