Die Vorteile die uns künstliche Intelligenz (KI) bringt und bringen wird sind vielfältig. Doch wie bei jeder Innovation profitieren nicht nur gut gesinnte Akteure davon. Aktuell haben sich Betrüger:innen einige mächtige KI-Tools zu Nutze gemacht.
Hier einige der neuesten Betrugsmaschen, vor denen wir warnen:
- KI-gesteuerte Phishing-Angriffe: Verbesserte Qualität von Phishing-E-Mails durch KI, die den Schreibstil von Personen nachahmen kann. Das erschwert die Erkennung durch Spam-Filter. Vorsicht bei unerwarteten Mails ist geboten. Achten Sie auf die Absender-Adresse.
- Stimmklonung: Betrüger nutzen KI, um Stimmen von Bekannten zu klonen, besonders bei Telefonbetrug. Bei unerwarteten, verdächtigen Anrufen ist empfohlen aufzulegen und die vermeintliche Person selbst anzurufen.
- Chatbots in Messaging-Apps: KI-Chatbots führen täuschend echte Gespräche, um Vertrauen zu erschleichen und an sensible Informationen zu gelangen oder schadhafte Software zu verbreiten.
- Deepfake-Videos und Bilder: Deep-Learning erstellt täuschend echte Videos und Bilder, die oft für betrügerische Szenarien genutzt werden.
- Automatisierter Finanzhandel-Betrug: KI-getriebene Handelsalgorithmen versprechen unrealistische Renditen, um Menschen in betrügerische Investmentpläne zu locken.
Wie Sie sich vor diesen Betrügereien am besten schützen können?
Hinterfragen Sie ungefragte Kontaktversuche. Achten Sie immer auf die Mailadresse des Absenders. Daran kann man sehr häufig etwa Phishing-Mails erkennen. Es gibt auch Tools, die erkennen können, ob ein Text von einer KI verfasst wurde (sind einfach via Suchmaschinen zu finden). Bei Videos und Stimmen achten Sie auf unnatürliche Bewegungen oder Stimmschwankungen. Derzeit klingen KI-Stimmen immer noch leicht roboterhaft, machen zu kurze oder zu lange Pausen oder sprechen einfache Begriffe falsch aus. In Videos lässt sich ein KI-generierter Inhalt an den Augenbewegungen erkennen, und auch daran, dass sich Bewegungen unnatürlich roboterhaft wiederholen.
Tipp: Lesen Sie unsere aktuellen Phishing-Warnungen.