Wenn die eigene Stimme zur Waffe wird: Der Aufstieg von KI-gestütztem Audio-Betrug
Künstliche Intelligenz macht den klassischen Enkeltrick gefährlicher denn je. Kriminelle benötigen nur wenige Sekunden Audiomaterial aus sozialen Medien, um Stimmen perfekt zu klonen. Dieser Artikel beleuchtet die Technik hinter den „Deepfake-Calls“, nennt reale Fallbeispiele und erklärt effektive Schutzmaßnahmen wie das Familien-Codewort.













