++ KI EXPERTENFORUM TRAINING ACADEMY ++ KI-KOMPETENZ SCHULUNGEN FÜR IHRE MITARBEITER/INNEN ++

INFOS
KI und Cybercrime
Dr. Michael Gebert Donnerstag, 15. Mai 2025 von Dr. Michael Gebert

Code gegen Kontrolle

KI und Cybercrime

Künstliche Intelligenz verändert die Welt der Cyberkriminalität radikal. Doch wer hält die Maschinen auf, wenn der Mensch nicht mehr mitkommt? Ein Blick auf digitale Tatorte, ungelöste Rechtsfragen und die Hoffnung auf eine neue Ethik. Ein leiser Klick. Eine zuverlässig imitierte Stimme. Ein gefälschtes Video, das aussieht wie Wahrheit. Künstliche Intelligenz hat das Wesen des Cybercrime fundamental verändert: Angriffe sind schneller, intelligenter, schwerer zu erkennen. Die Eintrittsbarrieren für Kriminelle sinken, während die Technologien komplexer werden. Während Sicherheitsexperten Alarm schlagen, hinken Gesetze, Institutionen und internationale Regeln hinterher.

Die Zeiten, in denen Hacker Stunden brauchten, um Zugang zu sensiblen Systemen zu finden, sind vorbei. Heute analysieren KI-gestützte Systeme in Sekunden Tausende von Schwachstellen. Laut einer aktuellen Studie konnten automatisierte Algorithmen in Simulationsangriffen die Erfolgsrate von Cyberattacken auf 82 Prozent erhöhen – gegenüber 48 Prozent bei klassischen Methoden. Besonders perfide: der Einsatz von generativer KI in sozialen Angriffen. Deepfakes – also mithilfe von generativen neuronalen Netzwerken künstlich erzeugte Medieninhalte – simulieren authentische Stimmen oder Videos, die Vertrauen erschleichen. KI-Systeme erstellen hyperpersonalisierte Phishing-Mails, die auf individuelle Sprachmuster oder Biografien abgestimmt sind. So wird Betrug zur psychologischen Hochleistung. Gleichzeitig setzen viele KI-Entwickler auf Missbrauchsprävention: OpenAI, Cohere oder Hugging Face integrieren Nutzungsrichtlinien, API-Sperren und Ethikgremien, um den verantwortungsvollen Einsatz ihrer Modelle zu fördern.

Tools wie WormGPT oder FraudGPT, die in Darknet-Foren zirkulieren, senken die technischen Hürden für Cybercrime drastisch. Selbst ohne Programmierkenntnisse lassen sich mit wenigen Klicks ausgefeilte Angriffsszenarien erzeugen. Die Folge: Ein Anstieg sogenannter "Cybercrime-as-a-Service"-Modelle, bei denen KI-basierte Angriffe gemietet oder geleast werden. Interpol warnt vor einer neuen „Low-Code-Kriminalität“. Cybercrime ist nicht mehr das Feld elitärer Nerds, sondern ein Marktplatz mit Plug-and-Play-Böswilligkeit. Damit wird Cyberkriminalität zu einer Dienstleistung. Das Tempo steigt, die Hürden sinken – die Kontrolle? Unklar.

Deepfakes und Desinformation

Laut der Internet Watch Foundation stieg 2024 die Anzahl von KI-generierten Missbrauchsdarstellungen um 380 Prozent. Auch politische Kampagnen und Meinungsbildung sind betroffen. Deepfakes beeinflussen Wahlen, diffamieren Gegner, simulieren Geständnisse. Das Problem: Auch spezialisierte Tools erkennen Deepfakes nur mit einer Genauigkeit von 78–85 Prozent – laut Studien, die auf experimentellen Modellen basieren. Je besser die Fakes, desto ineffektiver die Forensik. Eine permanente Aufrüstungsspirale zwischen Angriff und Abwehr beginnt.

Während Deepfakes längst Realität manipulieren, bleibt das Recht oft fiktiv – zu langsam, zu unkonkret, zu national. Die Rechtslage ist fragmentiert. In den USA gibt es auf Bundesebene keine einheitliche Deepfake-Regelung. In Europa verhandelt man noch über konkrete Strafmaßnahmen im Rahmen des AI Acts. Viele Länder – wie die Ukraine oder asiatische Staaten – kennen bislang keine explizite Regelung für KI-gestützte Straftaten. Der internationale Charakter digitaler Verbrechen – Angreifer in Lagos, Server in Taiwan, Opfer in Stuttgart – überfordert nationale Gerichtsbarkeiten. Die Budapest-Konvention von 2001, ein internationales Abkommen zur Bekämpfung von Computerkriminalität, wirkt wie ein Fax in einer Welt von neuronalen Netzwerken.

Ein besonders heikler Aspekt ist die strafrechtliche Zurechnung bei hochautonomen Systemen. Wenn ein hochautonomes System eigenständig entscheidet, wer trägt Verantwortung? Dalia Kadry Abdelaziz analysiert die mögliche strafrechtliche Haftung für Artificial Super Intelligence und plädiert für ein hybrides Haftungsmodell: Entwickler, Betreiber und Nutzer müssten je nach Einflussbereich mitverantwortlich gemacht werden. Doch wie beweist man Vorsatz oder Fahrlässigkeit, wenn der Code selbst Entscheidungen trifft, die keiner mehr nachvollziehen kann – etwa bei diskriminierenden Kreditvergaben oder automatisierten Investitionen mit kriminellem Ergebnis?

Die juristische Landschaft braucht eine Frischzellenkur – mit Ideen, die Technologie, Transparenz und internationale Zusammenarbeit verbinden. Ein rechtlicher Neustart könnte in der Einführung von digitalen Beweissicherungsmechanismen bestehen, etwa über Blockchain-Protokolle, die den Nachweis von Manipulationen ermöglichen. Ebenso diskutieren Juristen über ein Modell abgestufter Haftung, das sich am tatsächlichen Einfluss auf die KI-Entscheidungen orientiert und so eine differenzierte Zurechnung von Verantwortung erlaubt. Zusätzlich drängt sich die Forderung nach klaren Transparenzpflichten für Unternehmen auf, insbesondere dort, wo KI in sicherheitskritischen Bereichen wie Infrastruktur, Justiz oder Finanzwesen zum Einsatz kommt. Solche rechtlichen Innovationen müssen aber auf internationaler Ebene abgestimmt werden, um nicht an nationalen Grenzen zu scheitern. Eine abgestufte Haftung nach Eingriffsintensität würde ermöglichen, Verantwortung realistisch zuzuordnen. Gleichzeitig braucht es verpflichtende Transparenzstandards für Unternehmen, die KI in sicherheitsrelevanten Bereichen einsetzen. Solche Mechanismen müssen Teil multilateraler Abkommen werden, um transnationale Schlupflöcher zu schließen.

Der Gegenschlag: Wenn Sicherheit selbst lernfähig wird

Technologie gegen Technologie: Die Cybersecurity-Branche arbeitet mit Hochdruck an Gegenmitteln. Selbstlernende Firewalls, KI-basierte Verhaltensanalyse, Deception-Technologien – also gezielte Täuschungstechniken wie Honeypots, die Angreifer in kontrollierte Umgebungen locken – gehören zum Arsenal. Ein prominentes Beispiel ist „Darktrace“, das mit Hilfe von Machine Learning Netzwerkverhalten analysiert und in Echtzeit auf Abweichungen reagiert. Oder Intel’s „FakeCatcher“, ein Tool zur Echtzeiterkennung von Deepfakes anhand mikroskopischer Pixelverzögerungen. Doch auch hier gilt: Defensive KI ist teuer, reaktiv und komplex. Die Frage bleibt: Wie viel Sicherheit ist genug, wenn der Angreifer längst ein lernfähiges System ist?

Der Schutz vor KI-Missbrauch beginnt nicht im Serverraum, sondern im Klassenzimmer, im Gerichtssaal und im Alltag. Eine resiliente Gesellschaft braucht umfassende digitale Bildung, die Menschen befähigt, Fälschungen zu erkennen und Risiken kompetent einzuschätzen. Gleichzeitig muss sich die Softwareentwicklung an ethischen Standards orientieren, die über reine Richtlinien hinausgehen und soziale Auswirkungen bewusst reflektieren. Ebenso entscheidend ist eine kulturelle Bewusstseinsbildung, die digitale Selbstverteidigung nicht als Spezialwissen, sondern als Teil allgemeiner Bildung etabliert. Denn KI-Missbrauch ist kein rein technisches, sondern ein kulturelles Problem – eines, das mediale Bildung, gesellschaftliche Werte und rechtliche Orientierung gleichermaßen betrifft. Und wer die Kultur nicht versteht, verliert den Krieg um Wahrheit und Vertrauen. Zivilgesellschaftliche Organisationen wie „AlgorithmWatch“ oder „Digitale Gesellschaft e.V.“ fordern daher mehr Mitsprache bei der Entwicklung und Kontrolle KI-basierter Systeme – nicht nur in der Wirtschaft, sondern auch in Behörden und Sicherheitsstrukturen.

Künstliche Intelligenz ist weder gut noch böse. Aber sie ist mächtig. Und Macht braucht Regeln. Cybercrime mit KI ist kein dystopischer Ausblick mehr, sondern Teil unseres digitalen Alltags. Die gute Nachricht: Wir haben Werkzeuge. Die schlechte: Wir nutzen sie noch nicht konsequent genug. Richtig eingesetzt, kann KI auch zur Aufklärung beitragen – etwa durch forensische Analyse von Fake-Material oder die Automatisierung von Opferschutzmaßnahmen. Was es braucht, ist ein Zusammenspiel von Recht, Technik, Bildung und internationaler Kooperation. Damit wir die Kontrolle über die Kontrolleure behalten. Und damit aus der Angst vor der Maschine eine Ethik der Verantwortung wird.


#ArtificialIntelligence #Cybercrime #AIethics #Cybersecurity #Deepfakes #AIregulation #DigitalResponsibility #TrustworthyAI #EthicalAI #FutureOfTech #AIgovernance #DigitalLiteracy #AIliteracy #TechPolicy #AIandSociety #ResponsibleInnovation #AlgorithmicAccountability #CyberResilience #AIAct #CyberThreats #TechForGood #SmartRegulation #InfoIntegrity

-Promotion-

kompetenz-schulung

Kompetenz Schulung

Academy

-Promotion-

KI ist Chefsache!

KI ist Chefsache!

Mehr Infos

-Promotion-

Oliver Schwartz - KI Keynote Speaker

KI Keynote Speaker

5 Sterne Redner

-Promotion-

30 Minuten: ChatGPT

30 Minuten: ChatGPT

Mehr Infos

© 2023-2025 by Turtle-Media. Alle Rechte vorbehalten.
Das KI Expertenforum ist ein unabhängiges redaktionelles Angebot. ISSN 2943-8918.
Member of the Pact for Skills. An initiative of the European Commission.

Wir verwenden Cookies, um unsere Website zu optimieren und Ihnen das bestmögliche Online-Erlebnis zu bieten. Mit dem Klick auf „Alle erlauben“ erklären Sie sich damit einverstanden. Weitere Informationen finden Sie in unserer Datenschutzerklärung. Sie können Ihre Einstellungen jederzeit in unserem Cookie-Kontrollzentrum anpassen. Sie sind noch unsicher oder lehnen die Verwendung von Cookies ab? Kein Problem! Dann wählen Sie bitte "Nur notwendige". Bei Bedarf können Sie einzelne Cookies auch zu einem späteren Zeitraum freigeben.

Einstellungen