ახალი ამბები
აი, როგორ ამოიცნოთ AI-ით გენერირებული Deep fake -ები

აი, როგორ ამოიცნოთ AI-ით გენერირებული Deep fake -ები

წინა კვირაში გამოქვეყნებული სტატიით მოგიყევით თუ რა საფრთხეებს შეიძლება უქმნიდეს ხელოვნური ინტელექტი 2024 წლის არჩევნებს. ახლა კი იმ ხერხებზე გეტყვით, რისი გამოყენებითაც შეძლებთ ამოიცნოთ, AI-ის მიერ გენერირებული ხმა ან/და მასალა.

თუმცა, აქვე უნდა აღინიშნოს ისიც, რომ არ არსებობს უნიკალური გზა ანდაც ხელსაწყო რომლის გამოყენებითაც დაზუსტებით შეიძლება ითქვას კონკრეტული მასალა AI-ს გამოყენებით არის შექმნილი თუ არა. 

ვიდრე ხერხებზე გადავალთ,ერთ მაგალითზე მოგიყვებით. 

2023 წლის ოქტომბერში,სლოვაკეთის არჩევნებამდე სულ რაღაც 2 დღით ადრე, სოციალურ ქსელში აუდიოჩანაწერი გამოქვეყნდა. მასზე ორი ხმა იყო: სავარაუდოდ, მიხელ შიმეჩკასი, რომელიც ლიბერალურ პარტიას წარმოადგენს და ადგილობრივი გაზეთის ჟურნალისტის. ჩანაწერის მიხედვით, ისინი არჩევნების გაყალბებას , ბოშათა თემის ხმების ყიდვით გეგმავდნენ. 

ამ ამბავში საინტერესოა ისიც, რომ სავარაუდოდ, გაყალბებული ხმა არჩევნებამდე 48 საათით ადრე გავრცელდა, ანუ იმ დროს, როდესაც სლოვაკეთის საარჩევნო კანონის მიხედვით,  პოლიტიკოსებს  აგიტაციის და პოლიტიკური განცხადებებით გამოსვლის უფლება აღარ აქვთ. 

გავრცელებული ჩანაწერი გადაამოწმა AFP- მა ექსპერტებზე დაყრდნობით დაადგინა, რომ ხმა “მანიპულაციის უამრავ ნიშნავს” შეიცავდა. არჩევნებში პრორუსულმა პარტიამ  “SMER” გაიმარჯვა. პარტია  კატეგორიულად ეწინააღმდეგება უკრაინის სამხედრო მხარდაჭერას და საარჩევნო კამპანიასაც სწორედ ამ მიმართულებით აწარმოებდა. 
მაგალითად, 2023 წლის ოქტომბერში ჩატარებულ კვლევაში ვკითხულობთ, რომ ამერიკელების ნახევარზე მეტს- 52 % არ შეუძლია ადამიანის და ხელოვნური ინტელექტის მიერ შექმნილი მასალების განსხვავება.

მარტივი გასაკეთებელი რთული აღმოსაჩენი

„როგორც ჩანს, აუდიო უფრო მეტად გამოიყენება არჩევნებსა და კრიზისის დროს – მისი შექმნა და გავრცელება უფრო ადვილია სხვადასხვა პლატფორმების საშუალებით, ასევე ხმა ძალიან პერსონალიზებულია – ხშირად საჭიროა პირისპირ იცნობდეთ ადამიანს, იცოდეთ როგორ საუბრობენ, რათა მანიპულირება ამოიცნოთ. ჩანაწერში შეიძლება ისმოდეს ფონური ხმები, მუსიკა დიალოგი – ეს ყველაფერი უფრო ართულებს დადგენას არის თუ არა ის გენერირებული. განსხვავებით ვიდეოსგან, სადაც მანიპულაცია ხილულადაც შესამჩნევია ხოლმე” – ამბობს GIJN-ის სწრაფი რეაგირების პროექტის მენეჯერი, შირინ ანლენი.

რჩევები როგორ ამოვიცნოთ AI-ით გენერირებული ხმები?

გადაამოწმეთ საეჭვო ჩანაწერი იმ ადამიანებთან ვისთვისაც ეს კონკრეტული მშობლიური ენაა:

უკრაინული ფაქტჩეკერი ორგანიზაციის – Stopfake.org წარმომადგენელი ჰყვება, რომ სწორედ ამ გზით გადაამოწმეს 2023 წელს აშშ-ის პრეზიდენტის ჯო ბაიდენის სავარაუდოდ გაყალბებული ჩანაწერი. აუდიოფაილის მიხედვით, ბაიდენი რუსეთის პრეზიდენტის ვლადიმერ პუტინის უძლეველობას აღიარებდა. ” StopFake-მა ჩანაწერი ამერიკელ Natave speakers გაუზიარა, რომლებმაც მაშინვე შენიშნეს, რომ გარკვეული სიტყვები აშკარად გაყალბებული იყო – განსაკუთრებით “რბილი “i” ბგერის გამოყენება სიტყვაში “პატრიოტი”, რომელსაც ამერიკელები წარმოთქვამენ თითქმის სამ სრულ მარცვლად”.

ექსპერტები:

შეიმუშავეთ ექსპერტები სია, რომლებიც კვალიფიციურები არიან AI-ის მიმართულებით, რათა საჭიროების შემთხვევაში მათთან გაიაროთ კონსულტაცია და სთხოვოთ დახმარება.

ინფორმაციის გამავრცელებლის/პირველწყაროს პოვნა:

რეპორტიორებს შეუძლიათ გამოიყენონ ონლაინ ინსტრუმენტები, როგორიცაა WHOIS, რათა მიაკვლიონ ყალბი სოციალური მედიის თავდაპირველ ანგარიშს ან პოსტერს. ამ მიმართულებით შესაძლოა დაგეხმაროთ ისეთი ხელსაწყოები როგორებიცაა: RiskIQ და Crowdtangle. ასევე, სცადეთ PlayHT Classifier ინსტრუმენტი აუდიოში ხელოვნური ინტელექტის მანიპულირების ზოგადი ნიშნების აღმოსაჩენად. „ეს არის იმის შესამოწმებლად, აუდიო ჩანაწერი ხელოვნური ხელოვნური ინტელექტის გამოყენებით არის გაკეთებული თუ ორიგინალური ჩანაწერია.

ფაქტების შემმოწმებელი ორგანიზაციები და ზოგიერთი პროდემოკრატიული არასამთავრობო ორგანიზაცია მობილიზებულია, რათა დაეხმარონ მოქალაქეთა ჯგუფებსა და ნიუსრუმებს საეჭვო ვირუსული საარჩევნო კონტენტის გაანალიზებაში. მაგალითად, ასეთია ადამიანის უფლებათა დაცვის არაკომერციულმა ორგანიზაცია – Witness. გასულ წელს ორგანიზაციის ჩართულობით დაახლოებით 40 კვლევისა და კომერციული ექსპერტის ქსელის გამოყენებით ათობით საეჭვო კლიპის გაანალიზდა. რესურსების ნაკლებობის მქონე ნიუსრუმებს შეუძლიათ მიმართონ Deepfakes Rapid Response პროექტის ექსპერტების. მათი გუნდი უკვე მუშაობდა ინდონეზიაში, პაკისტანსა და ინდოეთში არჩევნების ნიუსრუმებთან.

„ ნაკლებად სავარაუდოა, რომ ვიმუშაოთ, მაგალითად, New York Times-თან ან The Guardian-თან, რადგან მათ აქვთ დიდი საგამოძიებო რესურსი. ჩვენ გვყავს 15 გუნდი – დაახლოებით 40 ექსპერტი – სხვადასხვა გამოცდილებით: ვიდეო- გამოსახულება ან აუდიო, ლოკალური კონტექსტი”. – ამბობს GIJN-ის სწრაფი რეაგირების პროექტის მენეჯერი, შირინ ანლენი.

სტატია მომზადებულია niemanlab-ის მასალაზე დაყრდნობით.