Kas usute, et keegi viitsib jännata teise inimese alastifoto võltsimisega? (Mis pole lihtne tegevus.) Pigem usun, et neiu ise tegi alastifoto, foto läks “jalutama” ja nüüd on probleem.
Esileht › Pereelu ja suhted › Võltsitud alastifoto
Teema: Võltsitud alastifoto
Ma ei usu, et midagi maha vaikib politsei. Äkki siis polnud tõendeid või midagi sellist.
Muidugi viitsitakse võltsida – see pole üldse keeruline, paljud programmid teevad seda automaatselt – nt deepfacega tehakse videosidki.
Muidugi viitsitakse võltsida – see pole üldse keeruline, paljud programmid teevad seda automaatselt – nt deepfacega tehakse videosidki.
Häält saab järgi teha ka. Helistab tegelt robot.
Kas neidisel on probleem, et liiga vähe inimesi on seda pilti näinud, et sellele usinalt reklaami teeb?
Muidugi viitsitakse võltsida – see pole üldse keeruline, paljud programmid teevad seda automaatselt – nt deepfacega tehakse videosidki.
deepfake
deepfake
deepfake
Krt, ärge kasutage võõrkeelseid sõnu, kui neid kirjutada ei oska.
Muidugi viitsitakse võltsida – see pole üldse keeruline, paljud programmid teevad seda automaatselt – nt deepfacega tehakse videosidki.
videoidki
Kas neidisel on probleem, et liiga vähe inimesi on seda pilti näinud, et sellele usinalt reklaami teeb?
See on nn Streisandi efekt.
https://et.wikipedia.org/wiki/Streisandi_efekt
Keda huvitab mingi tundmatu naise alastifoto?
Kas usute, et keegi viitsib jännata teise inimese alastifoto võltsimisega? (Mis pole lihtne tegevus.) Pigem usun, et neiu ise tegi alastifoto, foto läks “jalutama” ja nüüd on probleem.
Igaüks võib väga lihtsasti teha. Ma ei tea, kas selle tüdruku alastifoto oli päris või mitte, aga sellist küberkiusamist hakkab üha enam olema, kus tehakse kellesti võltspilte nt AI abiga (juba praegu saab tehnikateadlikum inimene seda teha) ja saadetakse näiteks kogu perekonnale. Ei tasu alahinnata, et keegi ei viitsi. Hulle obsessiivseid inimesi ja kiusajaid on alati. Tean inimesi, kellele on aastaid saadetud anonüümsetelt kontodelt meile, sest nägu ei meeldi vms. Kui instagramis vaadata, kes kirjutavad ilusatele tüdrukutele kommentaare, siis on samamoodi mõni vana pensioniealine mees noore neiu kontot igapäevaselt kommenteerimas, või siis keskealine laste ja naisega mees.
Igaüks võib väga lihtsasti teha. Ma ei tea, kas selle tüdruku alastifoto oli päris või mitte, aga sellist küberkiusamist hakkab üha enam olema, kus tehakse kellesti võltspilte nt AI abiga (juba praegu saab tehnikateadlikum inimene seda teha) ja saadetakse näiteks kogu perekonnale. Ei tasu alahinnata, et keegi ei viitsi. Hulle obsessiivseid inimesi ja kiusajaid on alati. Tean inimesi, kellele on aastaid saadetud anonüümsetelt kontodelt meile, sest nägu ei meeldi vms. Kui instagramis vaadata, kes kirjutavad ilusatele tüdrukutele kommentaare, siis on samamoodi mõni vana pensioniealine mees noore neiu kontot igapäevaselt kommenteerimas, või siis keskealine laste ja naisega mees.
AI teeb valmis ju täiesti uue ja mitteeksisteeriva inimese, mitte ei multipleeri sama inimest. Väidetavalt häält aga saab ette sööta ja teha sama häälega inimest järgi, sellest oli juttu USA uudistes.
https://this-person-does-not-exist.com/en
https://www.youtube.com/watch?v=V6_jCGzR020&ab_channel=NBCNews
Igaüks võib väga lihtsasti teha. Ma ei tea, kas selle tüdruku alastifoto oli päris või mitte, aga sellist küberkiusamist hakkab üha enam olema, kus tehakse kellesti võltspilte nt AI abiga (juba praegu saab tehnikateadlikum inimene seda teha) ja saadetakse näiteks kogu perekonnale. Ei tasu alahinnata, et keegi ei viitsi. Hulle obsessiivseid inimesi ja kiusajaid on alati. Tean inimesi, kellele on aastaid saadetud anonüümsetelt kontodelt meile, sest nägu ei meeldi vms. Kui instagramis vaadata, kes kirjutavad ilusatele tüdrukutele kommentaare, siis on samamoodi mõni vana pensioniealine mees noore neiu kontot igapäevaselt kommenteerimas, või siis keskealine laste ja naisega mees.
AI teeb valmis ju täiesti uue ja mitteeksisteeriva inimese, mitte ei multipleeri sama inimest. Väidetavalt häält aga saab ette sööta ja teha sama häälega inimest järgi, sellest oli juttu USA uudistes.
Võimalik on teha alastifoto ka päriselt eksisteerivast inimesest, kui tulid välja esimesed arenenumad AI tööriistad, nagu midjourney ja stable diffusion, kus alastipildid olid keelatud, siis hakati neist kohe ka pornoversioone tegema. Praegu on igaühel võimalik kellegi pildi põhjal ta lihtsasti alasti võtta. Hiljuti oli skandaal, kus mingi twitchi striimer oli vaadanud deepfake pornot ühest naisstriimerist ja see tab oli tal striimides arvutiekraanile jäänud, nii et vaatajad nägid selle kirjeldust (mitte küll sisu). Seejärel see mees tegi vabandusvideo, kus ta nuttis oma tüdruksõbra kõrval, et enam nii ei tee. Ma ei imesta, kui paari aasta pärast teevad teismelised poisid klassi tüdrukutest deepfake alastipilte, sest see on nii lihtne ja kättesaadav.
Ma ei imesta, kui paari aasta pärast teevad teismelised poisid klassi tüdrukutest deepfake alastipilte, sest see on nii lihtne ja kättesaadav.
No just oli katoliiklik maailm tagajalgadel, kui ilmus pilt paavstist valges sulemantlis. Nagu Michelini mehike. Sajad tuhanded reageerisid. Enne kui selgus, et pilt on võlts. Pole võimatu, et keegi hull ta ka alasti võtab. Kuigi sellist teotust ei peaks ilmselt keegi tõeks. Ja vaevalt, et keegi ka postitada tihkaks.
Võimalik on teha alastifoto ka päriselt eksisteerivast inimesest, kui tulid välja esimesed arenenumad AI tööriistad, nagu midjourney ja stable diffusion, kus alastipildid olid keelatud, siis hakati neist kohe ka pornoversioone tegema. Praegu on igaühel võimalik kellegi pildi põhjal ta lihtsasti alasti võtta. Hiljuti oli skandaal, kus mingi twitchi striimer oli vaadanud deepfake pornot ühest naisstriimerist ja see tab oli tal striimides arvutiekraanile jäänud, nii et vaatajad nägid selle kirjeldust (mitte küll sisu). Seejärel see mees tegi vabandusvideo, kus ta nuttis oma tüdruksõbra kõrval, et enam nii ei tee. Ma ei imesta, kui paari aasta pärast teevad teismelised poisid klassi tüdrukutest deepfake alastipilte, sest see on nii lihtne ja kättesaadav.
Kahjuks maailm läheb päris sogaseks ära.
Esimest korda kuulen sellest inimesest. Absoluutselt kulm ka ei kerkiks kui seda fotot näeksin. Jumala suvaline harju keskmine naisterahvas, mida erilist sellel pildil vaadata oleks ????
Muidugi viitsitakse võltsida – see pole üldse keeruline, paljud programmid teevad seda automaatselt – nt deepfacega tehakse videosidki.
deepfake
deepfake
deepfake
Krt, ärge kasutage võõrkeelseid sõnu, kui neid kirjutada ei oska.
Oled ikka kindel?
Deepface vs deepfake
Deepfake kasutab deepface (tehnoloogiat), deepface tehnoloogia on varasem, mida kasutati alguses eelkõige näotuvastamiseks. Sama tehnoloogia alusel deepfake toimibki – deepfake nimetus tuli hiljem ja on üldisem juba neile videodele-piltidele, kus on inimene asendatud.
https://www.youtube.com/watch?v=QSmHho1uHFM&ab_channel=DruuzilTech%26Games
Võimalik on teha alastifoto ka päriselt eksisteerivast inimesest, kui tulid välja esimesed arenenumad AI tööriistad, nagu midjourney ja stable diffusion, kus alastipildid olid keelatud, siis hakati neist kohe ka pornoversioone tegema. Praegu on igaühel võimalik kellegi pildi põhjal ta lihtsasti alasti võtta. Hiljuti oli skandaal, kus mingi twitchi striimer oli vaadanud deepfake pornot ühest naisstriimerist ja see tab oli tal striimides arvutiekraanile jäänud, nii et vaatajad nägid selle kirjeldust (mitte küll sisu). Seejärel see mees tegi vabandusvideo, kus ta nuttis oma tüdruksõbra kõrval, et enam nii ei tee. Ma ei imesta, kui paari aasta pärast teevad teismelised poisid klassi tüdrukutest deepfake alastipilte, sest see on nii lihtne ja kättesaadav.
Jah, praegu sain teada https://static01.nyt.com/images/2023/04/06/business/00AI-POPE/00AI-POPE-articleLarge.png?quality=75&auto=webp&disable=upscale et tõepoolest. Ei teandnud, et on võimalik.
Lõpuks polegi inimesi enam vaja, crazy stuff.
Väidetavalt USAs vandekohus ka tulevikus A.I. https://juryanalyst.com/blog/artificial-machine-intelligence/
Aeg kultuuris alastiolemine lõpuks normaliseerida. Kuna me ise sellega hakkama pole saanud, teeb seda meie eest AI.
Aeg kultuuris alastiolemine lõpuks normaliseerida. Kuna me ise sellega hakkama pole saanud, teeb seda meie eest AI.
Kes “me ise”? Kui seda tõesti õigeks pead, siis alusta ise kohe selle normaliseerimisega. Pane oma pildid üles. Tegelikult ajasid ju niisama mula, eks.
Aeg kultuuris alastiolemine lõpuks normaliseerida. Kuna me ise sellega hakkama pole saanud, teeb seda meie eest AI.
Inimesed ju ongi alasti tänapäeval. Lõpuks oleme immuunsed inimkehale.
Aeg kultuuris alastiolemine lõpuks normaliseerida.
Erinevates kultuurides on see kogu aeg normaalne olnud. Mulle siiski meeldib elada inimeste seas, kes kannavad riideid ja peavad oma keha üsna privaatseks. Rannas ja spaas ja saunas võime kõik enam-vähem paljalt olla, aga ei tahaks kuidagi “normaliseerida” alasti ärikohtumist, taksoteenust, ehitajaid või hambaarsti. Sulle tõesti meeldiks alasti santehnik olla? Miks krt peaks alastiolekut normaliseerima?
Rannas ja spaas ja saunas võime kõik enam-vähem paljalt olla
Enam-vähem? Aga siis tegelikult tahaks ikka nii, et ainult silmad välja paistavad? Vahet pole, kas santehnik on alasti või mitte, see lihtsalt pole kõige vähemalgi määral tähtis. Samamoodi pole mingitele piltidele mõtet sekunditki raisata.
kes see peaks mingi tundmatu tšiki alastipilti feikima?? 🙂 lollus, keegi ei viitsiks sellega tegeleda
kes see peaks mingi tundmatu tšiki alastipilti feikima?? ???? lollus, keegi ei viitsiks sellega tegeleda
Sinu jaoks tundmatu, aga tihti võib ka kõige tavalisematel inimestel mingi hullunud vihavaenlane olla või tahta omast arust “nalja” teha. See feikimine ei ole kellelegi raske, enam ei pea ise töötlema, ega tegema – programmid teevad valmis. Annad AI näo pildi aluseks ja kirjeldad, mida pildil näha tahad ja ilma töötlemata juba programm loob pildi.
Annad AI näo pildi aluseks
Ja kui internetis pole ühtki pilti? Seetõttu pole vaja kõike postitada. Jah, vahel juhtub, et jäävad mingid inimesed pildile, aga need on enamasti staarid ja kui nende pilte järele tehtakse, küll nad kohtusse annavad.
Esileht › Pereelu ja suhted › Võltsitud alastifoto