Aistru kasyklos S01E41
Kakava S01E71
Beyond Bcrypt
from
Yes, I know bcrypt for securely storing password checks is no longer up to date and Argon2 has long been its replacement. But how do I store the username, usually an email address for clear assignment, without it being easily visible to the public (hacked)
Mazyte mano S01E57
Prarastas pasitikejimas S01E30
Treffen im Innenministerium wegen drohender Abschiebung kolumbianischer Pflegekrfte in Wilstedt -Petition
OnlineTu man graziausia S01E15
Kraujo geles S02E71
Laukine S01E03
Teisingumo agentai S10E32
Kraujo geles S02E70
Juntas, essas prticas formam uma trilha poderosa, capaz de nos conduzir a uma conscincia mais profunda, onde repousam a paz e a sabedoria que buscamos...
.
*As 3 ncoras da Meditao.*
.
Veja Aqui:
.
Acesse, assista, oua, aproveite, curte, comenta, compartilha...
.
Espaa es el quinto pas de la UE con menor piratera online, contando con el ftbol por IPTV
Guten Tag
Es ist wieder Stammtisch am Donnerstag.
Ganz herzlich lade ich alle Interessierten zum 99. Nhnerd:inenstammtisch ein.
Jeder und jede ist willkommen (alle Nhniveaus und alle textilen Techniken)
Der Stammtisch findet wie gewohnt auf dem Big Blue Button statt.
Eckdaten:
Datum: 28.11.2024
Uhrzeit: 19:00 CET
BBB Link:
Kein spezielles Thema
As of now, we can see stuff like the , a 100TB 3,5" SSD for - storage.
As for the that thing could be made - I'm just not good enough layouting PCBs with the precision needed for signalling...
That being said, it's inevitable that even WORM as a feature may be copied over.
Until there are solutions tho, LTO and other options will OFC remain dominant and relevant.
La plateforme *Net-Bourses * (net-bourses.re
) suspendue par mesure de scurit pour une priode indtermine.
Hey all,
Just doing a small, chill Fall Guys stream today!
La plateforme nationale de signalements des actes de cyber malveillance baptise DJAMA SUTURA est dsormais oprationnelle.
644,869 PDF sensitive files in a 713.1 GB archive containing thousands of people's criminal histories, background checks, vehicle and property records  
Les manipulations opres par les rseaux sociaux sont une menace pour les dmocraties.  
Enqute de police ouverte la suite du dpt de plainte d'un enseignant pour menaces de mort profres sur Snapchat  
, -Angebote, -Schlacht so schreien uns die zum gerade an.
Vor allem die chinesischen -Plattformen und locken Verbraucher*innen mit absurd billigen Preisen. Gratis beim Kauf mit dabei: .
Bei stichprobenartigen hat die Europische in der Mehrheit der Online-Produkte verbotene wie , und entdeckt.
Diese knnen verursachen, das schdigen und beeintrchtigen.
Wie die EU-Kommission jetzt gegen vorgeht und wo Sie nachhaltige Schnppchen jagen knnen,
Australia to ban kids from social media!
I suggest they ban boomers from Facebook next.
Society should be protected from people who spend too much ti
Kodas S01E21
Pazadetoji S01E131
Kakava S01E70
Prarastas pasitikejimas S01E29
Aistru kasyklos S01E40
Mazyte mano S01E56
eigentlich wollen sich von der reden doch nicht so recht weil Sie nicht verletzen wollen(/!)
dennoch das knnen machen :
- mit : und
oder
- und
oder
- im
...
Veel relaties tegenwoordig grotendeels
Change and the Long-Term Future
a ()
The Faculty of offers a free online Winter School for advanced undergraduates and early-stage graduate students on January 9-10, 2025. Registration deadline: 29 December 2024. More information at:
Upgrade your home dcor with Dusaans premium . Explore a variety of colors, patterns, and fabrics to suit any style. Perfect for sofas, beds, and chairs, our cushion covers combine comfort with elegance. Shop now for durable, budget-friendly designs that add a personal touch to your living space!
Visit:
KI-Nacktbilder: Wie Online-Shops mit sexualisierten Deepfakes abkassieren
Dieser Artikel stammt von Netzpolitik.org.
Wie Online-Shops mit sexualisierten Deepfakes abkassieren
Offen im Netz verfgbare Websites versprechen eine Art Rntgenblick fr Fotos. Mithilfe sogenannter Nudifier werden Kleider durch nackte Haut ersetzt. Durch solche Deepfakes wird bildbasierte Gewalt so niedrigschwellig wie nie.
Die ersten Bilder sind gratis, ab dann wird ein Abo fllig. Websites zum Erstellen sexualisierter Deepfakes bieten ihre Dienste inzwischen offen im Netz an es braucht nur eine Anmeldung per E-Mail-Adresse. Nutzer*innen knnen ein beliebiges Foto hochladen und per Mausklick wird die abgebildete Person entkleidet. Die Ergebnisse sind teils fotorealistisch, mglich ist das durch sogenannte KI.
Wer solche Bilder ohne Einverstndnis der gezeigten Personen erstellt, setzt sich ber deren sexuelle Selbstbestimmung hinweg und bt aus. Wer solche Bilder verbreitet, kann sich .
Fr die Recherche hat netzpolitik.org eine Stichprobe aus zehn Deepfake-Websites miteinander verglichen und deren Betreiber*innen kontaktiert. Die Seiten lieen sich innerhalb krzester Zeit finden. Es gengten simple Suchbegriffe bei einer gngigen Suchmaschine. Um den Seiten keine zustzliche Reichweite zu verschaffen, werden Namen hier nicht genannt, auch nicht die verwendeten Suchbegriffe.
Der Vergleich zeigt: Es ist inzwischen so einfach wie nie, realittsnahe sexualisierte Deepfakes zu erstellen. Die Website-Betreibenden haben nach eigenen Angaben teils Hunderttausende Nutzer*innen pro Monat. Die Preise fr Premium-Abos beginnen bei 2 Euro fr Einsteiger*innen und enden bei bis zu 380 Euro frs Jahresabo. Die Abos versprechen auch eine hhere Auflsung oder krzere Bearbeitungszeiten.
Dass man solche Bilder nicht ohne Einverstndnis der gezeigten Personen erstellen soll, wird oft per Pop-up-Hinweis abgefrhstckt. Teils legen die Websites den Besucher*innen allerdings nahe, sich Nacktbilder weiblicher Promis generieren zu lassen. So zeigt eine Seite das Oben-ohne-Bild einer bekannten US-Sngerin. Deepfakes weiblicher Krper sind offenkundig das Primrprodukt. Nur vereinzelt fand sich auch die Option, nackte mnnliche Krper zu generieren.
Werkzeuge einfach zugnglich
Screenshot aus Deepfake-Tutorial eines Shops: Gelb eingefrbt ist die KI-basierte Kleider-Erkennung.Jngst berichteten internationale Medien ber einen Deepfake-Fall aus dem US-Bundesstaat Pennsylvania: Die Polizei hatte demnach einen Schler festgenommen, der KI-Nacktbilder von Mitschler*innen erstellt haben soll. Aus Sicht der Eltern habe die Schule nicht ausreichend auf Warnungen reagiert. Als der Streit eskalierte, fiel sogar . Im Vorjahr kochte ein Deepfake-Fall in einer spanischen Schule zu hoch. Die Mtter der betroffenen Mdchen organisierten sich, Zeitungen und Fernsehen berichteten.
Unsere Recherche zeigt: Die Werkzeuge fr solche Deepfakes sind einfach zugnglich. Tter*innen bruchten nur wenige Minuten und ein paar Fotos aus sozialen Medien, um hnliche Skandale zu reproduzieren. Eines der Tools bietet Nutzer*innen sogar an, einfach den Link zu einem Instagram-Profil einzugeben und die Software soll sich die Bilder automatisch schnappen. Der Aufschrei in Spanien und in den USA mag sich auf konkrete Einzelflle beziehen doch vieles spricht dafr, dass sich solche Flle rund um kursierende KI-Nacktbilder sehr leicht wiederholen knnen.
Die Technologie dahinter sind wie etwa das quelloffene StableDiffusion. Mehrere der untersuchen Websites nehmen ausdrcklich auf StableDiffusion Bezug. Vereinfacht ausgedrckt entsteht das KI-Nacktbild so: Zunchst erkennt eine Software die Umrisse einer dargestellten, bekleideten Person. Dann wird die entsprechende Flche mit der Darstellung einer nackten Person gefllt. Beibehalten werden das Gesicht und die sonstige Umgebung des Bildes. Gerade bei frontalen Aufnahmen mit eng anliegender Kleidung knnen auf diese Weise sehr realistische Aufnahmen entstehen.
Zwar knnten Menschen auch mit einer herkmmlichen Bastelschere Gesichter ausschneiden und Fotos montieren. Im Gegensatz zu solchen Papierfakes sind Deepfakes jedoch mhelos zu erstellen und realistischer.
Verbreitung seit 2023
Noch vor wenigen Jahren war der Zugang zu sexualisierten Deepfakes deutlich schwerer. 2019 gab es etwa Berichte ber eine . Auch wenn die ursprnglichen Uploads der Software offline genommen wurden, kursierten in . Inzwischen mssen sich Nutzer*innen nicht mehr durch solche Foren whlen.
2022 berichteten wir gemeinsam mit dem SPIEGEL . Nutzer*innen konnten in den Apps etwa das Nacktbild einer Pornodarsteller*in hochladen und dann deren Gesicht ersetzen. Auch das ist wohl berholt: Inzwischen bentigen Nutzer*innen nur noch das Bild einer beliebigen, bekleideten Person als Vorlage.
2024 warf laut US-Magazin 404 Media Apple mehrere iOS-Apps , die fr nicht-einvernehmliche, sexualisierte Deepfakes geworben haben sollen. Wenn sie ihre Dienste dagegen direkt im Browser anbieten, mssen sich Deepfake-Shops nicht an die Richtlinien von App-Marktpltzen halten.
Der offenbar lteste der zehn untersuchten Online-Shops wurde im Jahr 2022 erstmals im Internet Archive hinterlegt. Das Internet Archive dokumentiert grtenteils automatisch Websites fr die Nachwelt. Vier Online-Shops wurden im Jahr 2023 erstmals archiviert vier weitere im Jahr 2024. Die fr diese Recherche untersuchten Deepfake-Shops sind also eine neuere Entwicklung.
Windelweiche Schutzmanahmen
Alle zehn Shops haben sich zumindest oberflchlich auf juristischen und ethischen Widerstand vorbereitet. Bei mehreren Shops weisen Pop-up-Fenster darauf hin, dass Nutzer*innen volljhrig sein mssen und keine Fotos ohne Einverstndnis hochladen drften. Ein Shop schreibt im Footer der Website, fr die generierten Bilder sei man als Unternehmen nicht verantwortlich. Ein weiterer Shop fhrt aus, man sei sich der ethischen Implikationen bewusst und ermuntere Nutzer*innen, alle rechtlichen Standards einzuhalten. Einen eher kreativen Ansatz verfolgt ein anderer Shop: Die generierten Bilder seien Kunst.
Mehrere Shops schreiben ausdrcklich, dass sie Manahmen gegen die sexualisierte Darstellung von Minderjhrigen ergreifen wrden. In vielen Lndern, darunter Deutschland, ist der Besitz solcher Aufnahmen . Mithilfe automatischer Alterserkennung lassen sich zumindest technische Hrden hochziehen, um zu verhindern, dass Deepnudes von Kindern generiert werden. Allerdings sind die . Gerade Personen um die 18 Jahre knnten also irrtmlich als bereits volljhrig oder als noch minderjhrig eingeschtzt werden.
Dennoch behauptet einer der analysierten Shops, man blockiere 99,9 Prozent illegaler Inhalte durch automatische und hndische Prfung. Auerdem wrden die erzeugten Aufnahmen ein Wasserzeichen verpasst bekommen, das Zeitstempel und IP-Adresse enthalte. So knnten Betroffene im Zweifel ein Bild zur Ersteller*in zurckverfolgen. Nher geprft haben wir das nicht.
Ob die Darstellung einer erwachsenen Person mit oder ohne Einverstndnis erfolgt, lsst sich ohne Weiteres nicht feststellen. Groe Pornoseiten wie Pornhub verlangen von Darsteller:inen deswegen inzwischen . Solche Vorkehrungen fanden wir jedoch bei keinem der zehn Shops.
Dabei ist der Einsatz von Deepfakes fr einvernehmliche Darstellungen durchaus denkbar. Im Frhjahr interviewte beispielsweise die taz die Porno-Creatorin Sika Moon, die von realen Aufnahmen ihres Krpers unter anderem zum Schutz vor Stalking. Mit Blick auf nicht-einvernehmliche KI-Nacktbilder sagte sie: Das Problem liegt nicht im Werkzeug, sondern bei dem, der es benutzt.
Adresse: unbekannt
Eine Unternehmensadresse gaben nur drei der zehn Shops auf ihrer Website an. Zwei davon waren demnach in Grobritannien, eine in Argentinien registriert. Zwei Shops erwhnten zumindest das Land Grobritannien als Firmensitz. Und zwei weitere nannten auf direkte Anfrage ihr angebliches Herkunftsland: Kambodscha und Taiwan. Bei drei Shops bleibt schleierhaft, wo die Betreiber*innen sitzen.
Der Deepfake-Shop aus Taiwan hat nach eigenen Angaben 200.000 zahlende Nutzer*innen. Im Durchschnitt wrden tglich 100.000 Bilder generiert, heit es in einer E-Mail, die jedoch mit keinem Namen unterzeichnet wurde. Beim Shop in Kambodscha sollen es tglich 6.000 generierte Bilder sein, rund 50.000 Nutzer*innen wrden fr den Dienst zahlen. Seit Grndung seien fast 22 Millionen Aufnahmen in Nacktbilder verwandelt worden.
Von Auen berprfen lassen sich diese Zahlen nicht. Gerade im Konkurrenzkampf miteinander htten solche Shops zumindest den Anreiz, sich als besonders populr zu prsentieren.
Zahlungen mit Kreditkarte oder PayPal
Premium-Preise eines Deepfake-Shops: Wer mehrere Hundert Euro hinlegt, zahlt nur wenige Cent pro KI-Nacktbild.Am Geschft mit den Deepfakes sind offenbar herkmmliche Zahlungsdienstleister beteiligt: sechs von zehn Shops gaben an, Zahlungen per Visa und Mastercard zu akzeptieren drei nennen PayPal, drei Google Pay. Ob Zahlungen ber diese Dienstleister auch wirklich funktionieren, haben wir nicht getestet.
Alle Shops verlangen zudem einen Login per E-Mail, um sich Bilder generieren zu lassen. Das drfte auch eine Manahme gegen automatisierte Nutzung durch Bots sein. Hierfr boten acht von zehn Shops an, sich per Gmail-Adresse einzuloggen also einen weiteren Google-Dienst.
Die Pressestellen von Visa, Mastercard, PayPal und Google beantworteten die Presseanfrage von netzpolitik.org sehr hnlich: Demnach verstoen die Shops fr sexualisierte Deepfakes gegen die Richtlinien der Konzerne. Entsprechenden Hinweisen gehe man nach. Wie oft das schon der Fall gewesen ist, will jedoch keiner der Konzerne beantworten auch nicht auf direkte Nachfrage.
Auf einen potenziellen Wegfall der Zahlungsoptionen haben sich mehrere Shops bereits vorbereitet. Sie bieten auch Zahlung per Kryptowhrung an.
EU-Richtlinie verbietet Verbreitung
Bereits in unserem Bericht aus dem Jahr 2022 haben wir geschildert, was KI-generierte Nacktbilder fr Betroffene bedeuten knnen. Die Bilder knnen sich schnell verbreiten, auch in der Schule oder im Arbeitsumfeld. Selbst wenn ein Deepfake nicht den wahren Krper zeigt, kann es Betroffene blostellen und verletzen. Josefine Ballon von sagte: Betroffene wssten nie, ob andere die Deepfakes vielleicht doch fr echt halten. Die gemeinntzige Organisation untersttzt Betroffene digitaler Gewalt juristisch und bringt sich politisch ein.
Zum Schutz von Betroffenen hat sich die EU jngst auf eine geeinigt. Demnach mssen Mitgliedsstaaten auch Deutschland die Verbreitung nicht-einvernehmlicher, sexualisierter Deepfakes ausdrcklich . Die EU-Mitgliedstaaten haben fr die Umsetzung drei Jahre Zeit. Die neuen Regeln drften damit also erst ab 2027 greifen. Zumindest die Union im Bundesrat zeigte schon in diesem Jahr Ambitionen, zu schaffen.
Bis auf Weiteres mssen sich Betroffene in Deutschland auf andere Gesetze berufen. In Frage kommen etwa zivilrechtliches Vorgehen wegen der Verletzung von Persnlichkeitsrechten oder das Kunsturhebergesetz, wie der . HateAid nennt gerade auch eine strafrechtliche Handhabe, etwa wegen Beleidigung oder Verleumdung.
Geschlechtsspezifische Deepfakes
Neben den Personen, die per Deepfake entkleidet werden, spielt noch eine Gruppe eine Rolle: Vorlage fr die nackten Krper der Deepfakes drften in vielen Fllen die Aufnahmen von Erotik- und Pornodarsteller*innen sein. Deren Job ist ohnehin oft prekr und die wenigsten drften ihr Einverstndnis dafr gegeben haben, mit ihren Inhalten fr KI-Training oder als Deepfake-Vorlage herzuhalten.
Im Kern sind nicht-einvernehmliche, sexualisierte Deepfakes weniger ein juristisches oder technologisches Problem als ein gesellschaftliches. Es ist die Entscheidung von Menschen, die Grenzen der abgebildeten Personen durch KI-Nacktbilder zu verletzen. In den Skandal-Fllen aus Pennsylvania und Spanien waren Teenager*innen involviert. Je nach Fall und Alter sind sie noch nicht einmal .
Das Phnomen hat auch eine geschlechtsspezifische Dimension. Besonders im Visier sind Frauen und das spiegelt sich auch in den zehn untersuchten Online-Shops wider. Sexualisierte Frauenkrper stehen auf diesen Websites im Vordergrund. Es wimmelt vor Brsten, Nippeln und Vulven. Penisse muss man aktiv suchen und wird nur manchmal fndig. So lange es fr viele kein Tabu ist, solche nicht-einvernehmlichen Bilder zu generieren, drften sich Deepfakes kaum eindmmen lassen.
Author: Sebastian Meineck
#abkassieren #deepfakes #nacktbilder #online #sexualisierten #shops
Teisingumo agentai S10E31
Kraujo geles S02E69
Tu man graziausia S01E14
Kraujo geles S02E68
Kodas S01E20
um caminho para percebermos que a verdadeira liberdade est em viver cada momento com presena, conscincia e gratido...
.
*Meditao como principal ferramenta para estar presente.*
.
Veja Aqui:
.
Acesse, assista, oua, aproveite, curte, comenta, compartilha...
.