Deepfake არის ხელოვნურად გენერირებული მედია, რომელიც ციფრულადაა მანიპულირებული გარკვეული პირის აუდიო/ვიზუალური მონაცემების შესაცვლელად. “Deep” ტერმინში გულისხმობს ფოტო თუ ვიდეო მასალის გაყალბებას "Deep learning" მეთოდით, რომელიც მოიაზრებს მანქანური სწავლების ღრმა აღქმა-ათვისების მეთოდს ხელოვნური ნეირონული ქსელებით (ANN). უფრო მარტივად რომ ვთქვათ ყალბი ვიდეოს, ფალსიფიცირებული ჩანაწერის მაქსიმალურად რეალისტური ხარისხით შექმნა ასე იოლი არასდროს ყოფილა.
რითი არის სახიფათო?
Deepfake მასალებმა შესაძლოა ნებისმიერი დააზარალოს, თუმცაკიბერკრიმინალები ხშირად პირადი თუ პოლიტიკური მიზნებისთვის დანაშაულის ამმეთოდით სამიზნეებად იღებენ პოპულარულ ადამიანებს - პოლიტიკოსებს, მსახიობებს, საზოგადო მოღვაწეეებს, ჟურნალისტებს და ა.შ. პრეცენდენტები კი გვაჩვენებს რომ, ადამიანთა პირადი გამოსახულებისა და ხმის ხელოვნური მანიპულაციის დანაშაულს ყველაზე მეტად კრიმინალები ინტიმურ კონტექსტში აყალბებენ - მაგალითად შეგვიძლია მოვიყვანოთ ერთი თვის წინ გავრცელებული სკანდალი ერთ-ერთ ქართველ მომღერალზე, რომელსაც სწორედ Deepfake მონტაჟის მეშვეობით, რეპუტაციისა და პირადი ღირსების შელახვის მიზნით გაუვრცელეს "ინტიმური კადრები", რომელიც როგორც მალევე დადგინდა იყო. იმის მიუხედავად რომ Deepfake არ არის ახალი ტენდენცია კიბერდანაშაულის სამყაროში; ხელოვნური ინტელექტის (AI) სწრაფი განვითარება და ხელმისაწვდომობის გაზრდა ამ დანაშაულის მიერ გამოწვეულ ზარალს აუარესებს; ხელოვნური ინტელექტის მეშვეობით, Deepfake-ით გაყალბებული მასალა ულტრარეალისტურია და გაუწვრთნელი თვალისთვის ვირტუალურად არ განსხვავდება რეალური კადრისგან, ამის მაგალითი შეგვიძლია შემდეგი ვიდეოთი ვნახოთ:
როგორ დავიცვათ Deepfake-სგან თავი?
ბირთვში, ამ მეთოდის წარმატებულობა ყოველთვის დამოკიდებულია ადამიანთა მინდობლობასა და ცნობიერების დონეზე. მომხმარებლებთან სათანადო კომუნიკაციით ამ ეტაპზე შესაძლებელია ხელოვნური ინტელექტისა და Deepfake მანიპულაციის მხილება, მაგრამ ხელოვნური ინტელექტის სწრაფი ტემპით განვითარება და მათი საჯარო ხელმისაწვდომობა მრავალ რისკ-ფაქტორზე გვიტოვებს საფიქრალს მითუმეტეს მოახლოებული საარჩევნო პერიოდისთვის როგორც აშშ-ში, ისე საქართველოში...