Skarpe reaksjoner på deepfake-porno av Taylor Swift
Både Taylor Swift-fansen og politikere reagerer sterkt på at KI-generert porno med artisten har fått stor spredning på X, tidligere Twitter.
Et av de falske bildene av den amerikanske megastjernen hadde 47 millioner visninger før det endelig ble fjernet torsdag. Ifølge amerikanske medier var bildet synlig på den Elon Musk-kontrollerte plattformen i 17 timer.
Bildene er også tilgjengelige i andre sosiale medier.
I en uttalelse sier X at nakenbilder uten samtykke, såkalt Non-Consensual Nudity (NCN), er forbudt på plattformen og at de har «nulltoleranse» for dette.
– Vi fjerner aktivt alle identifiserte bilder og iverksetter de tiltakene som trengs mot kontoene som er ansvarlige for å poste dem, heter det videre.
(NTB)