- Ang paghihiwalay ng katotohanan sa fiction ay hindi kailanman naging napakahirap para sa mga botante.
- Habang bilyun-bilyon ang tumungo sa mga botohan sa taong ito, ang AI deepfakes ay nagdudulot ng tunay na banta sa mapagkakatiwalaang impormasyon.
- Nakatanggap na ang mga botante ng mga robocall na nagpapanggap bilang Joe Biden, at nakakita ng mga pekeng video ad ni Rishi Sunak.
Patuloy na sinasabi sa amin na pupunta ang AI gawing mas madali ang buhay. Gayunpaman, ang mga botante na pupunta sa mga botohan sa 2024 ay may dahilan upang mag-alinlangan.
Ngayong taon, humigit-kumulang kalahati ng populasyon ng mundo malalaman kung gaano kaproblema ang AI sa demokratikong proseso habang naghahanda silang bumoto sa mga halalan sa US pati na rin ang mga tulad ng Britain, India, at Mexico.
Ang mga botante, na inatasan sa pag-uunawa ng mga patakaran ng kandidato at partido, ay nahaharap na sa isang mahirap na trabaho. ngayon, Nagbabanta ang AI na gagawing mas mahirap ang prosesong iyon.
“Kahit na isara natin ang pagbuo ng AI, ang landscape ng impormasyon pagkatapos ng 2023 ay hindi na magiging katulad ng dati,” Isinulat ni Ethan Mollick, isang associate professor sa Wharton, ngayong buwan.
Mga kamakailang pag-unlad sa generative AI, udyok ng ChatGPT ng OpenAIibig sabihin ang teknolohiya ay mas malaking problema na ngayon.
Nalaman ng mga botante sa New Hampshire na ang mahirap na paraan pagkatapos nilang simulan ang pagtanggap ng mga tawag bago ang isang hindi opisyal na Democrat na primarya kung saan Tila sinabihan sila ni Joe Biden na huwag bumoto.
Ang malalalim na robocall, unang iniulat ng NBC News noong Lunes, binuksan gamit ang classic na catchphrase ni Biden na “what a bunch of malarkey,” bago subukang ilayo ang mga tao sa balota ng Martes.
Ang Biden robocall ay partikular na nakapipinsala din dahil sa kung gaano kahirap na makilala ang isang tunay na boses mula sa isang pekeng.
Peer-reviewed na pananaliksik na inilathala noong Agosto sa journal PLOS ONE natagpuan na ang mga tao struggled upang makita ang artipisyal na-generated na pagsasalita higit sa isang-kapat ng oras.
“Ang kahirapan sa pag-detect ng mga deepfakes sa pagsasalita ay nagpapatunay sa kanilang potensyal para sa maling paggamit,” sabi ng mga mananaliksik noong panahong iyon.
Ang mga deepfake na nabuo ng AI ay nagdudulot din ng iba pang mga problema. Sa UK, pananaliksik ni Fenimore Harper Communications nakahanap ng higit sa 100 deepfake na video ad na nagpapanggap bilang Punong Ministro Rishi Sunak sa Facebook.
Ayon sa pananaliksik, ang mga bayad na ad — 143 sa mga ito ay natuklasan sa pagitan ng Disyembre 8 at Enero 8 — “ay maaaring umabot sa mahigit 400,000” katao. Lumilitaw na ang pagpopondo para sa mga ad ay nagmula sa 23 bansa, kabilang ang “Turkey, Malaysia, Pilipinas, at Estados Unidos.”
“Mukhang ito ang unang malawakang bayad na promosyon ng isang malalim na pekeng video ng isang pulitikal na pigura sa UK,” sabi ng ulat ni Fenimore Harper. Hindi agad tumugon ang Meta sa kahilingan ng Business Insider para sa komento.
Kahit na hindi malinaw kung sino ang nasa likod ng mga deepfakes sa US at UK, ang kamakailang paglaganap ng AI ay nangangahulugang halos sinumang may internet access at isang AI tool maaaring magdulot ng ilang kalituhan.
Nabanggit ni Mollick sa kanyang newsletter kung paano niya nilikha ang isang malalim na pekeng video sa ilang minuto sa pamamagitan ng pagpapadala ng 30 segundong video ng kanyang sarili at 30 segundo ng audio ng kanyang boses sa AI startup na Heygen.
“Mayroon akong isang avatar na maaari kong sabihin kahit ano, sa anumang wika. Ginamit nito ang ilan sa aking mga galaw — tulad ng pagsasaayos ng mikropono — mula sa pinagmulang video, ngunit lumikha ng isang clone ng aking boses at binago ang aking mga galaw sa bibig, kumukurap at lahat ng iba pa ,” isinulat niya.
Mga guardrail
Ang mga kumpanya ng AI ay gumagawa ng ilang mga pagsisikap upang matugunan ang mga problema. Mas maaga sa buwang ito, Inihayag ng OpenAI ang mga plano nito upang maiwasan ang maling paggamit ng AI bago ang halalan ngayong taon.
Kasama sa mga plano ang paggamit ng mga guardrail sa mga tool gaya ng text-to-image na modelo na DALL-E upang pigilan ito sa pagbuo ng mga larawan ng mga totoong tao, pati na rin ang pagbabawal ng mga tool gaya ng ChatGPT na ginagamit para sa “political campaigning at lobbying.”
“Ang pagprotekta sa integridad ng mga halalan ay nangangailangan ng pakikipagtulungan mula sa bawat sulok ng demokratikong proseso, at gusto naming tiyaking hindi ginagamit ang aming teknolohiya sa paraang maaaring makasira sa prosesong ito,” Sinabi ng OpenAI sa isang blog.
Ang ibang mga organisasyon ay nagsusumikap na labanan ang pagkalat ng AI-generated fakery. Lisa Quest, UK at Ireland ang nangunguna para sa management consulting firm na si Oliver Wyman, sinabi sa aking kasamahan na si Spriha Srivastava sa Davos tungkol sa gawaing ginagawa ng social impact team nito kasama ng mga organisasyong pangkawanggawa sa “online na larangan ng kaligtasan” upang paghigpitan ang pagkalat ng maling impormasyon.
Sila ay humaharap sa isang mahirap na labanan, upang sabihin ang hindi bababa sa – tulad ng ginagawa ng mga botante na sinusubukang gawin kung ano ang maaari at hindi nila mapagkakatiwalaan.