Nyheder

En app fjerner tøj fra kvinders fotos, og det er et modbydeligt tilfælde af, hvordan AI misbruges

Ansvarsfraskrivelse: Indholdet af denne historie er 'Ikke sikkert til arbejde', så fortsæt med forsigtighed. MensXP er heller ikke kilden eller promoveringen af ​​softwaren. Ideen bag historien er at gøre folk opmærksomme på, hvad AI kan gøre, hvis det misbruges.



Der er dage, hvor vi føler os overvældede af alle de teknologiske fremskridt, der har ændret verden til det bedre. Og så er der dage som denne, hvor vi føler forfærdelige og modbydelige tanker om alle de forfærdelige ting, teknologien kan gøre.

De fleste af jer har måske ordet 'Deepfakes', ikke? Nå, hvis du troede, det var forfærdeligt, så bliver du bange for at lære om denne nye software, som jeg naturligvis ikke vil navngive. Det er en modbydelig software, og der er ingen måde, jeg vil give sit navn ud og promovere det.





Det er et stykke software, der udnytter kraften fra AI og neurale netværk til at lave falske nøgenbilleder af kvinder. Ja, jeg ved hvad du tænker lige nu. Det er faktisk en modbydelig app, der ikke skulle eksistere i første omgang. Faktisk var jeg ganske chokeret over at finde ud af, hvor let det er at downloade og bruge det. Jeg føler stærkt, at det skal tages ned så hurtigt som muligt, før folk får fat i det og begynder at misbruge det på f.eks. En arbejdsplads eller offentlige rum. Ligesom, tænk på, hvad der sker, hvis / når det kommer i de forkerte hænder. Jeg vil ikke engang tænke på, hvad der sker, når pervers og pædofile begynder at bruge det.

I en nøddeskal kan softwaren gøre et foto af en perfekt finklædt person til et realistisk udseende nøgenbillede af den samme person. Jeg tror, ​​du ved, hvad det gør, så jeg vil ikke stave det højt. Her er hvad softwaren kan gøre.



Denne app fjerner tøj fra kvinder

Så softwaren fungerer kun på billeder af kvinder. Ja, de mennesker, der skabte dette, var meget specifikke for, hvad de ville lave, og det fungerer overraskende godt. Ifølge Bundkort , ser det ud til at fungere bedst på billeder, hvor personen allerede viser en masse hud som f.eks. en badedragt.

De mennesker, der oprettede dette, har bogstaveligt talt oprettet et websted for at gøre softwaren tilgængelig til download gratis. Der er også en betalt version af softwaren, der giver dig yderligere funktioner. Jeg havde ingen intentioner om at downloade appen for at tjekke den ud, så jeg undersøgte noget.



Ifølge de mennesker, der har testet det, fungerer softwaren på både Windows- og Linux-maskiner, og man kræver absolut ingen ekspertise for at bruge den overhovedet. De siger, at det er lige så let at beskære et billede i en grundlæggende fotoredigerer. Jeg vil ikke engang gider at tilføje flere billeder og promovere appen, men ud fra de resultater, jeg har set, ser det ud til at fungere meget præcist.

dunpose 20 grader

Her er hvad den anonyme skaber af appen sagde, da han blev spurgt, hvorfor han oprettede et så skræmmende stykke software -

For omkring to år siden opdagede jeg potentialet i AI og begyndte at studere det grundlæggende. Da jeg fandt ud af, at GAN-netværk var i stand til at omdanne et dagtidsfoto til et nattetid, indså jeg, at det ville være muligt at omdanne et klædt foto til et nøgenbillede. Eureka. Jeg indså, at røntgenbriller er mulige! Drevet af sjov og begejstring for denne opdagelse, lavede jeg mine første tests og opnåede interessante resultater.

Ærligt talt betyder det ikke noget, hvorfor han oprettede det. Vi mennesker burde være mere bekymrede over det faktum, at software som denne findes i denne verden, og enhver, som bogstaveligt talt enhver, kan downloade den og gøre falske nøgenbilleder, der desværre ser meget virkelige ud.

Ideen om at skabe deepfakes i sig selv var skræmmende, men det tager bare tingene til et andet niveau. Årsagen til, at det er et endnu større problem, er, at en app som denne er let tilgængelig og lettere at bruge end deepfake. Det faktum, at det er lige så let som at installere og spille det som et videospil, er det, der skræmmer mig.

Jeg håber virkelig, at systemerne bliver bedre til at opdage deepfakes. Jeg kan kun begynde at forestille mig, hvordan dette kan misbruges, hvis det kommer i de forkerte hænder. Det er forfærdeligt at sige, at dybe forfalskninger og apps som denne næppe ridser overfladen af ​​AI kan gøre. Det ser ud til, at vi bliver dømt, hvis der ikke er nogen ordentlig regulering til brug for AI.

Kilde: vice

Hvad synes du om det?

Start en samtale, ikke en ild. Send med venlighed.

Skriv kommentar