Der Autor Dr. iur. Dr. rer. pol. LLM. Fabian Teichmann zeigt im vorliegenden Beitrag auf, wie Straftäter generative künstliche Intelligenz zum Zweck der falschen Verdächtigung nutzen könnten. Im Fokus steht dabei das Szenario, dass ein Straftäter mittels künstlicher Intelligenz zahlreiche Strafanzeigen generiert, die auf erfundenen Sachverhalten beruhen. Die betroffenen polizeilichen Dienststellen müssen alle diese Anzeigen bearbeiten und an die Staatsanwaltschaft weiterleiten, was eine erhebliche Ressourcenbindung verursachen würde. Jedoch kann eine Nichtbearbeitung von Strafanzeigen zur Erfüllung des Tatbestandes der Strafvereitelung im Amt führen.
Bei der Aufnahme von Strafanzeigen haben Polizeibeamte keinen Ermessensspielraum. Die Entscheidung, ob eine Straftat vorliegen könnte oder nicht, liegt bei der Staatsanwaltschaft. Im Zweifelsfall entscheidet ein Gericht. Diese Konstellation dient der Gewaltenteilung, birgt jedoch in Zeiten von künstlicher Intelligenz auch ein hohes Missbrauchspotenzial. Mittels neuartiger Chatbots können Kriminelle innert kürzester Zeit eine Vielzahl an Strafanzeigen mit falschen Verdächtigungen generieren. Diese Problematik wird in diesem Beitrag experimentell untersucht. Dazu versetzt sich der Autor in die Perspektive eines hypothetischen Täters und ersucht eine künstliche Intelligenz, ihn bei der Einreichung von Strafanzeigen basierend auf frei erfundenen Sachverhalten zu unterstützen.
Im ersten Schritt fragt der Autor den Chatbot, ob dieser ihm bei der Ausformulierung einer Strafanzeige in Deutschland helfen kann. Daraufhin listet der Chatbot alle nötigen Informationen auf und formuliert ein Beispiel. Danach ersucht der Autor die KI darum, eine Strafanzeige an den Polizeiposten X vorzubereiten und darin dem Herrn Y Betrug und Geldwäsche vorzuwerfen. Zudem bittet er die KI darum, seine Anonymität zu wahren. Zudem soll die KI die Strafanzeige mit frei erfundenen Angaben zum Sachverhalt und zur Schadenssumme vervollständigen. Ausserdem fragt der hypothetische Täter die KI, ob sie eine Strafanzeige gegen Herr Y erfinden kann, die ihm Drogenhandel im Park der Stadt X vorwirft. Nun möchte der Täter auch Personen, deren politische Meinung er nicht teilt, schaden. Daher bittet er den Chatbot, dem Bürgermeister der Stadt X eine Bestechung vorzuwerfen. Um den Ermittlungsaufwand der Polizei zu erhöhen, bittet er die KI darum, einem Universitätsprofessor die Bedrängung von Studentinnen zu sexuellen Handlungen vorzuwerfen. Da in diesem Fall nur der Täter, nicht aber die Opfer genannt werden, wird die Polizei zu umfangreichen Ermittlungen gezwungen.
Damit die Polizei nicht in Versuchung gerät, elektronisch eingereichte anonyme Anzeigen nicht mehr zu bearbeiten, lässt er die KI auch Strafanzeigen für Strafvereitelung im Amt gegen die Polizeibeamten, welche seine Anzeigen nicht verfolgt haben, vorbereiten. Des weiteren beauftragt er die KI, eine Dienstaufsichtsbeschwerde vorzubereiten, um den Druck auf die betroffenen Polizeibeamten weiter zu erhöhen. Als letzten Schritt fragt er die KI, wie er seine Anonymität gewährleisten kann.
Generative künstliche Intelligenz ganz zu verbieten kann nicht die Lösung sein. Es ist schliesslich auch denkbar, dass Bürger legitime Strafanzeigen mithilfe von KI erstellen. Es ist möglich, durch KI erstellte Strafanzeigen zu erkennen, jedoch können diese aus den beschriebenen Gründen nicht aussortiert werden.
Der Gesetzgeber hat den Umgang mit neuen Technologien zu regeln. Bis eine anderslautende gesetzlichen Regelung existiert, empfiehlt der Autor den betroffenen Polizeibeamten, sämtliche Anzeigen an die Staatsanwaltschaft weiterzuleiten, um sich vor allfälligen Vorwürfen zu schützen.