ახალი ამბები
რა საფრთხეებს უქმნის ხელოვნური ინტელექტი 2024 წლის არჩევნებს?

რა საფრთხეებს უქმნის ხელოვნური ინტელექტი 2024 წლის არჩევნებს?

აშშ-ს პრეზიდენტის ჯო ბაიდენის გაყალბებული ხმა, რომელიც ამომრჩეველს მოუწოდებდა ხმა არ მიეცა შტატის საპრეზიდენტო პრაიმერის არჩევნებში, ხელოვნური ინტელექტის გამოყენებით იყო გენერირებული. გაყალბებული ხმა საკმაოდ რეალურად ჟღერდა.

“შეინახეთ თქვენი ხმა ნოემბრის არჩევნებისთვის… ამ სამშაბათს ხმის დაფიქსირება საშუალებას აძლევს რესპუბლიკელებს კვლავ დონალდ ტრამპი აირჩიონ”, – ისმოდა გენერირებულ ხმაში.

ეს შემთხვევა აძლიერებს შიშებს, რომ ხელოვნური ინტელექტი გაამარტივებს დეზინფორმაციული კამპანიების მომზადებას და გავრცელებას. მაგალითად, ამერიკაში კავშირგაბმულობის ფედერალურმა კომისიამ გამოსცა გადაწყვეტილება, რომ ხელოვნური ინტელექტის მიერ გენერირებული ხმები ავტომოპასუხის მიერ [A robocall ] უკანონო გახადოს.

Deepfake-ის გავლენა არჩევნებზე – 2 მაგალითი:

2024 წელს არჩევნები 50-ზე მეტ ქვეყანაში ტარდება – საფრთხე, რომ AI დეზინფორმაციის გასავრცელებლად და ხალხზე მანიპულირებისათვის იყოს გამოყენებული იზრდება.

სლოვაკეთის ბოლო არჩევნების დროს, Faсebook-ზე ლიბერალური კანდიდატის ხელოვნური ინტელექტის მიერ გენერირებული აუდიოჩანაწერები გავრცელდა. ჩანაწერის მიხედვით, თითქოს კანდიდატი ფასების გაზრდასა და არჩევნების გაყალბებას განიხილავდა.

2023 წლის თებერვალს ნიგერიაში წინასაარჩევნო პერიოდში, სოციალურ ქსელში ხელოვნური ინტელექტით შექმნილი აუდიო კლიპი გამოჩნდა, რომლის მიხედვითაც, ოპოზიციის საპრეზიდენტო კანდიდატი კენჭისყრის გაყალბების გეგმებში იყო ჩართული.

საფრთხეებზე, რომ ხელოვნური ინტელექტით დეზინფორმაციის გავრცელებაა შესაძლებელი ჯერ კიდევ 2018 წელს წერდა BBC და the New York Times. 2022 წელს AI-ის გამოყენება Deepfake-ის შესაქმნელად შედარებით რთული პროცესი იყო და არც დამაჯერებლობით გამოირჩეოდა. თუმცა, 2024 წელს Deepfake უფრო დახვეწილია. მის გამოყენებას არჩევნებში პროგნოზირებს ფეისბუქის საარჩევნო პოლიტიკის ყოფილი ხელმძღვანელი ქეთი ჰარბატი, თუმცა აღნიშნავს იმასაც, რომ ის ჯერ არ იქნება “იმ მასშტაბის, როგორც ყველას წარმოუდგენია”.

გარდა დეზინფორმაციული ზიანისა, რომელიც AI-ს მიერ გენერირებულმა ყალბმა ამბავმა შეიძლება მოიტანოს, აღსანიშნავია ისიც, რომ საზოგადოებაში შეიძლება დამკვიდრდეს აზრი -“ყველაფერი შეიძლება Deepfake იყოს”, რაც ზინას აყენებს მოსახლეობის სანდოობას მათ შორის მედიისადმი.

ამ ფენომენის აღსანიშნად მკვლევრებმა რობერტ ჩესნიმ და დანიელ კიტს ციტრონიმ 2018 წელს გამოქვეყნებულ სტატიაში ტერმინი „მატყუარა დივიდენდი“ გამოიყენეს.

„როდესაც საზოგადოება უფრო მეტად აცნობიერებს იმ აზრს, რომ ვიდეო და აუდიო შეიძლება დამაჯერებლად გაყალბდეს, ზოგი შეეცდება გაექცეს პასუხისმგებლობას თავიანთი ქმედებებისთვის ავთენტური აუდიო ან ვიდეო ყალბად გამოაცხადოს”.

უახლოესი წარსულიდან მსგავსი შემთხვევები უკვე არსებობს. 2023 წლის აპრილში, ინდოელმა პოლიტიკოსმა განაცხადა, რომ აუდიოჩანაწერები, სადაც ის თავისი პარტიის წევრებს აკრიტიკებდა, ხელოვნური ინტელექტის გამოყენებით დაცვით იყო შექმნილი, თუმცა სასამართლო ანალიზმა აჩვენა, რომ მათგან მინიმუმ ერთი ჩანაწერი ავთენტური იყო.

როგორ ცდილობენ კანონმდებლები პრობლემის მოგვარებას?

კანონმდებლებმა შტატებში დააინიციირეს კანონპროექტი ხელოვნური ინტელექტის მიერ არჩევნებთან დაკავშირებული დეზინფორმაციული მასალების წინააღმდეგ. კანონი მოითხოვს, რომ არჩევნებამდე კონკრეტული დროით ადრე გამჟღავნდეს ხელოვნური ინტელექტის გამოყენებით შექმნილი მასალები ალასკაში, ფლორიდაში, კოლორადოში, ჰავაიში, სამხრეთ დაკოტაში, მასაჩუსეტსში, ოკლაჰომაში, ნებრასკაში, ინდიანაში, აიდაჰოსა და ვაიომინგში. თუმცა, ამ კანონპროექტის ინიცირება სულაც არ ნიშნავს, რომ ის ძალაში შევა.

აღსანიშნავია, რომ კანონის აღსრულება შეიძლება ეჭვქვეშ დადგეს სიტყვის თავისუფლების ან ხელოვნური ინტელექტის მიერ გენერირებული შინაარსის სატირად პოზიციონირების საფუძველზე.

ყალბის შინაარსის გავრცელების შესაზღუდად და პლატფორმიდან წასაშლელად დიდი გავლენა აქვს სოციალურ ქსელებს. თუმცა, ძირითადი პლატფორმების, მათ შორის Facebook-ის, YouTube-ისა და TikTok-ის პოლიტიკაში ნათქვამია, რომ ისინი წაშლიან მანიპულირებულ შინაარსს მხოლოდ იმ შემთხვევებისთვის, როდესაც „გაურკვეველი ზიანი“ მოხდა, ან თუ მასალა მიზნად ისახავს ხალხის შეცდომაში შეყვანას ხმის მიცემის პროცესებთან დაკავშირებით.

მასალა მომზადებულია The Journalist’s Resource-ის სტატიის მიხედვით.