• ჩვენ შესახებ
    1. გუნდი
    2. მეთოდოლოგია
    3. პერსონალური მონაცემების დაცვა
  • სარედაქციო კოდექსი
  • შესწორება/საჩივრები
  • პროექტის მხარდამჭერები
  • კონტაქტი
English Azərbaycan հայերեն Русский

Factcheck.ge

გადაამოწმე შენი ფაქტი
  • არჩევნები 2024 - კრიზისი
  • პერსონები
  • ვერდიქტები
    • სიმართლე
    • მეტწილად სიმართლე
    • ნახევრად სიმართლე
    • მეტწილად მცდარი
    • მცდარი
    • ტყუილი
    • მანიპულირება
    • ყალბი ამბავი
    • ვერდიქტის გარეშე
    • პოზიცია შეცვალა
    • პოზიცია არ შეუცვლია
    • პოზიცია ნაწილობრივ შეცვალა
    • სატირა
    • გაზეთი ფაქტ-მეტრი
  • რეგიონები
  • ყალბი ამბები
    • კლიმატის ცვლილება
    • როგორ არ მოვტყუვდეთ?
  • თემები
    • ეკონომიკა
    • სამართალი
    • პოლიტიკა
    • განათლება
    • ჯანდაცვა
  • სხვა
    • უკრაინა
    • დაპირებები
    • არჩევნები 2021
    • არჩევნები 2017
    • არჩევნები 2016
    • არჩევნები 2014
    • არჩევნები 2013
    • COVID-19
    • კოვიდვაქცინა
    • ფაქტ-მეტრი TV
დეზინფორმაცია: ისრაელი ხელოვნური ინტელექტის პროგრამას „სახარება“ მშვიდობიანი მოსახლეობის დასაბომბად იყენებს

დეზინფორმაცია: ისრაელი ხელოვნური ინტელექტის პროგრამას „სახარება“ მშვიდობიანი მოსახლეობის დასაბომბად იყენებს

ვერდიქტი: მანიპულაცია

08/12/2023
მანიპულირება
განცხადებაში გაჟღერებული ფაქტები/რიცხვები მეტ-ნაკლებად სწორია, თუმცა სრული კონტექსტი განზრახ არის დამახინჯებული
Facebook Linkedin Twitter Print

სოციალურ ქსელში Facebook-მომხმარებელი Irakli Zakareishvili, რომლის გავრცელებული ყალბი ამბავი „ფაქტ-მეტრს“ არაერთხელ გადაუმოწმებია (1, 2, 3), ისრაელ-ჰამასის ომთან დაკავშირებით ინფორმაციას ავრცელებს. ავტორის მტკიცებით, ისრაელი მშვიდობიანი მოსახლეობის დაბომბვისას ხელოვნური ინტელექტის პროგრამას, სახელად „სახარება“-ს, იყენებს, რომლითაც ღაზაში იმ შენობების ლოკაციებს ადგენს, „სადაც მოსახლეობის მაქსიმალური რაოდენობაა თავმოყრილი“. პოსტი ქმნის შთაბეჭდილებას, თითქოს აღნიშნული ინფორმაცია The Guardian-ის სტატიიდან „ციტატის“ სახითაა ამოღებული. 

რეალურად, გამოცემის მიერ გამოქვეყნებული სტატია სისტემა „სახარების“ განხილვას მართლაც ეძღვნება, თუმცა მასში ისრაელის მიერ მშვიდობიანი მოსახლეობის  ხელოვნური ინტელექტის მეშვეობით განზრახ დაბომბვის შესახებ არაფერია ნათქვამი. სტატიაში მართლაცაა საუბარი რისკებზე, რასაც AI-ით შექმნილი სისტემაზე დაყრდნობით განხორციელებული თავდასხმები შეიძლება ქმნიდეს, თუმცა ისრაელის მხრიდან მშვიდობიანი მოქალაქეების განზრახ დამიზნებაზე არაფერი წერია. გარდა ამისა, სტატიაში ისრაელის თავდაცვის ძალების განცხადებებია მოცემული, რომლის თანახმად, AI-ით შექმნილი სისტემა თავდასხმისას, სამოქალაქო მოსახლეობიდან მსხვერპლს პირიქით ამცირებს.

 

Facebook-მომხმარებლის მიერ წყაროდ წარმოდგენილი The Guardian-ის სტატია ღაზაში მიმდინარე ომში ისრაელის მიერ ხელოვნური ინტელექტის გამოყენებით შექმნილი სისტემის (სახელწოდებით „სახარება“) გამოყენებაზე საუბრობს.  ანალიზი დაზვერვის სამსახურის წყაროებს, ისრაელის თავდაცვის ძალების (IDF) ცალკეულ და IDF-ის ყოფილი წარმომადგენლების განცხადებებს ეყრდნობა. 

სტატიის თანახმად, ღაზაში მიმდინარე ადრეულ ოპერაციებში ისრაელის საჰაერო ძალებს ხშირად ეწურებათ სამიზნეები. ასევე ხშირი იყო შემთხვევა, როცა ახალი შეტევის დაწყებისას, „ჰამასის“ მაღალი რანგის ოფიცრები გვირაბებში უჩინარდებოდნენ. ისრაელის თავდაცვის ძალების ამ პრობლემის გადასაჭრელად სამიზნე დივიზია („target division“) შეიქმნა. ხელოვნურ ინტელექტზე დაფუძნებული სისტემის „სახარება“ („Habsora“, ინგლისურად „the Gospel“) დახმარებით, სამიზნე დივიზიამ 30 000-დან 40 000-მდე ეჭვმიტანილი მებრძოლის მონაცემთა ბაზის შექმნა შეძლო. 

სისტემა სხვადასხვა წყაროებიდან მოპოვებულ დიდი მოცულობის ინფორმაციას (დრონის კადრები, სამეთვალყურეო ჩანაწერები, ინდივიდისა და ჯგუფების გადაადგილებისა და ქცევის მონიტორინგის შედეგად მოპოვებული ინფორმაცია) აანალიზებს და მათზე დაყრდნობით, შეტევის ობიექტებს გამოყოფს. ისრაელის თავდაცვის ძალების ყოფილი ხელმძღვანელის, ავივ კოჩავის განცხადებით, წარსულში IDF-ს წელიწადში 50 სამიზნის გამოყოფა შეეძლო, ხოლო ხელოვნურ ინტელექტზე დაფუძნებული სისტემის შემოღებამ ეს რიცხვი დღეში 100-მდე გაზარდა. 

ისრაელის თავდაცვის ძალების მიერ გაკეთებულ მოკლე განცხადებაში აღნიშნულია, რომ ინსტრუმენტი ჰამასთან დაკავშირებულ ინფრასტრუქტურაზე ზუსტი თავდასხმის წარმოების შესაძლებლობას იძლევა, დიდ ზიანს აყენებს მტერს და მინიმალურს - არამებრძოლებს. ისრაელის  ყოფილმა სამხედრო მაღალჩინოსანმა Guardian-თან განაცხადა, რომ ოპერატიული ძალის მიერ სამოქალაქო მოსახლეობის ევაკუაციის მაჩვენებლის ზუსტი გაზომვა ხდება. გარდა ამისა, შეტევამდე ცოტა ხნით ადრე ისინი იყენებენ ალგორითმს, რომელიც დარჩენილი მშვიდობიანი მოქალაქეების რაოდენობას ადგენს. საბოლოოდ, ალგორითმი იძლევა მწვანე, ყვითელ, წითელ ნიშანს, მსგავსად საგზაო შუქნიშნისა. 

სტატიის თანახმად, სისტემასთან დაკავშირებით ექსპერტებს განსხვავებული მოსაზრებები აქვთ. თუ სამხედრო სფეროს წარმომადგენლები დადებითად აფასებენ პლატფორმის მუშაობას, ხელოვნური ინტელექტისა და საერთაშორისო ჰუმანიტარული სამართლის ექსპერტები ინსტრუმენტთან დაკავშირებით შეშფოთებას გამოთქვამენ. მაგალითად, სტოკჰოლმის მშვიდობის საერთაშორისო ინსტიტუტის მკვლევარი, დოქტორი მარტა ბო აღნიშნავს, რომ მსგავსი სისტემების მუშაობისას ყოველთვის არსებობს შეფასების სისტემური შეცდომის რისკი და ზედმეტად დაყრდნობა ამ სისტემაზე გადაწყვეტილების მიმღებ პირებზე დიდ გავლენას ახდენს. 

რიჩარდ მოიესი, Article 36- ის (იარაღისგან მიყენებული ზიანის შემცირებაზე ორიენტირებული სპეციალიზებული არაკომერციული ორგანიზაცია) დირექტორი, აცხადებს, რომ მსგავსი სისტემით მუშაობისას მეთაურს კომპიუტერის მიერ გენერირებული სამიზნეთა სია გადაეცემა, ამ დროს მეთაურმა არ იცის თუ როგორ შეიქმნა ეს სია და არ აქვს შესაძლებლობა საფუძვლიანად გამოიკვლიოს სისტემისგან მიღებული რეკომენდაციები, რაც სახიფათოა. მისი მტკიცებით, მსგავს სისტემებზე დაყრდნობისას ადამიანები მექანიზებული პროცესის ნაწილი ხდებიან და ვერ ახერხებენ სამოქალაქო ზიანის გათვლას. სამიზნე დივიზიის ყოფილმა თანამშრომელმა The Guardian-თან საუბრისას ასევე აღნიშნა, რომ სამიზნეები ავტომატურად განისაზღვრება და თანამშრომლები სისტემის მიერ გენერირებულ სიას მიყვებიან, ისინი სწრაფად მუშაობენ და არ არის დრო სამიზნეთა სიის და მასში არსებული კონკრეტული ინდივიდების გამოკვლევისთვის.

მიუხედავად  აღნიშნული ექსპერტების კომენტარებისა, სტატიაში არსადაა ნათქვამი, რომ ისრაელი ხელოვნურ ინტელექტზე დაყრდნობით შექმნილ სისტემას მშვიდობიან მოსახლეობაზე თავდასხმისთვის განზრახ იყენებს.

ამრიგად, Facebook-მომხმარებლის მიერ გავრცელებული ინფორმაცია მცდარია და პოსტში მოცემული ციტირება The Guardian-ის სტატიას არ ეკუთვნის.

--------------------------------------------------------------------------

სტატია Facebook-ის ფაქტების გადამოწმების პროგრამის ფარგლებში მომზადდა. ვერდიქტიდან გამომდინარე, Facebook-მა შესაძლოა სხვადასხვა შეზღუდვა აამოქმედოს - შესაბამისი ინფორმაცია იხილეთ ამ ბმულზე. მასალის შესწორებისა და ვერდიქტის გასაჩივრების შესახებ ინფორმაცია იხილეთ ამ ბმულზე.

თეგები:
#ისრაელი
#ევროპარლამენტი
#ხელოვნური ინტელექტი
ფაქტ-მეტრი
ფაქტ-მეტრი

ყველა სიახლე

  • 2022 წელს საკვალიფიკაციო გამოცდებზე გასული მასწავლებლებიდან 80%-ზე მეტი ჩაიჭრა

    2022 წელს საკვალიფიკაციო გამოცდებზე გასუ...

    სიმართლე
    განცხადება არის ზუსტი და მნიშვნელოვანი არაფერი აკლია
  • შეერთებულ შტატებთან სავაჭრო ბრუნვა წლიურად 2.2 მლრდ-ია, წელს პირველ ორ თვეში ბრუნვა გაორმაგდა და 0.5 მლრდ-ს მიაღწია.

    შეერთებულ შტატებთან სავაჭრო ბრუნვა წლიურ...

    ნახევრად სიმართლე
    განცხადება არის ნაწილობრივ ზუსტი, მაგრამ გამოტოვებულია დეტალები ან ზოგიერთი საკითხი კონტექსტს გარეშეა
  • პირველ კვარტალში სახელმწიფო ბიუჯეტი შესრულდა, თუმცა საგარეო ვალდებულებების ზრდის ნაწილში ჩამორჩენა 50%-ია

    პირველ კვარტალში სახელმწიფო ბიუჯეტი შესრ...

    გაზეთი ფაქტ-მეტრი
    გაზეთი ფაქტ-მეტრი
IFCN -ის ვერიფიკაცია
EFCSN
საჯარო ინფორმაციის ბაზა
Factcheck.ge
ევროპა GMF ნიდერლანდები USAID საქართველო

ტელეფონი: +(995 32) 2 22 29 13

ელ. ფოსტა: [email protected]

Factcheck.ge
Factcheck.ge

ამ ვებგვერდზე გამოხატული შეხედულებები და მოსაზრებები ეკუთვნის Factcheck.ge-ს და არ წარმოადგენს პროექტის მხარდამჭერი ორგანიზაციების მოსაზრებებსა და შეხედულებებს.

Factcheck.ge

© 2025 | პერსონალური მონაცემების დაცვა