Τρίτη 9 Απριλίου 2024

Αποφασίζει η Τεχνητή Νοημοσύνη ποιός θα ζήσει και ποιός θα σκοτωθεί στον πόλεμο της Γάζας;

Ένα κατεστραμμένο αυτοκίνητο σε έναν δρόμο

Ο «ψυχρός υπολογισμός» του AI στο πεδίο της μάχης

James Clayton, BBC North America tech reporter


Τα ισραηλινά χτυπήματα, όπως αυτό που έπληξε τους εργαζόμενους σε ανθρωπιστικές οργανώσεις την περασμένη εβδομάδα, έχουν γίνει πρωτοσέλιδα στα διεθνή πρωτοσέλιδα. Reuters
Τζέιμς Κλέιτον Ρεπόρτερ τεχνολογίας BBC Βόρειας Αμερικής
Ο ισραηλινός στρατός χρησιμοποιεί τεχνητή νοημοσύνη για να βοηθηθεί στον εντοπισμό στόχων στη Γάζα. Αυτός ισχυρίζεται μια έκθεση την περασμένη εβδομάδα, επικαλούμενη πολλούς στρατιωτικούς που εμπιστεύεται ως πηγές.
«Μια πηγή είπε ότι θα ξόδευαν περίπου 20 δευτερόλεπτα ανά στόχο, απλώς για να ακούσουν αν ο στόχος ήταν άνδρας ή γυναίκα», δήλωσε στο BBC ο συγγραφέας της έκθεσης, Yuval Abraham.
«Αν ήταν γυναίκα ακύρωναν και αν ήταν άνδρας βομβάρδιζαν, χωρίς να ελέγξουν γιατί η Τεχνητή Νοημοσύνη έπαιρνε τις αποφάσεις που έπαιρνε».
Οι Ισραηλινές Αμυντικές Δυνάμεις (IDF) αρνούνται ότι χρησιμοποιούν τεχνητή νοημοσύνη για να εντοπίσουν χτυπήματα. Αλλά οι κατηγορίες πυροδοτούν έναν σκοτεινό, δυστοπικό φόβο που έχουν ορισμένοι ειδικοί σε θέματα ασφάλειας – ότι η τεχνητή νοημοσύνη χρησιμοποιείται στο πεδίο της μάχης με περιορισμένη ανθρώπινη επίβλεψη.

Αυτά συχνά περιγράφονται ως αυτόνομα όπλα.

«Δεν υπάρχει διεθνώς αποδεκτός ορισμός για το τι είναι αυτόνομο όπλο», λέει ο Paul Scharre, συγγραφέας του Four Battlegrounds: Power in the Age of AI.
«Αλλά ουσιαστικά αυτό για το οποίο μιλάμε είναι ένα όπλο που μπορεί να πάρει τις δικές του αποφάσεις στο πεδίο της μάχης για το ποιον θα σκοτώσει».

Οι ΗΠΑ επενδύουν ήδη μεγάλα ποσά σε μαχητικά αεροσκάφη που κινούνται με τεχνητή νοημοσύνη και δεν απαιτούν πιλότους. Και στον πόλεμο της Ουκρανίας, υπήρξαν πολλές αναφορές για μη επανδρωμένα αεροσκάφη με τεχνητή νοημοσύνη και αναγνώριση εικόνας που μπορούν να αναγνωρίσουν στόχους.
Μία εταιρεία ισχυρίστηκε μάλιστα ότι τα μη επανδρωμένα αεροσκάφη της έχουν χρησιμοποιηθεί για τον εντοπισμό και την επίθεση σε ρωσικά στρατιωτικά αντικείμενα – εντελώς αυτόνομα.
“Δύο ανταγωνιστικά συστήματα τεχνητής νοημοσύνης ενδέχεται να συνεχίσουν να κλιμακώνουν μια σύγκρουση… υπάρχουν ακόμη και ανησυχίες ότι αυτό θα μπορούσε να προκαλέσει πυρηνικό πόλεμο”.

«Σίγουρα αρχίζουμε να φτάνουμε στο σημείο όπου η τεχνολογία τώρα δυνητικά ξεπερνά την ηθική συζήτηση», λέει ο Matthew Savill στο Royal United Services Institute (RUSI).

“Είμαστε ευτυχείς να αναθέσουμε σε ένα όπλο ή σε λογισμικό, αποφάσεις ή δραστηριότητα, που θα αναθέταμε σε ένα άτομο;”

Η Anna Hehir στο Ινστιτούτο Future of Life πιστεύει ότι η απάντηση σε αυτή την ερώτηση είναι ένα κατηγορηματικό όχι. Για αυτήν, τα αυτόνομα όπλα με δυνατότητα Τεχνητής Νοημοσύνης (Artificial Intelligence, AI) αντιπροσωπεύουν μια από τις μεγαλύτερες απειλές για την ανθρωπότητα.

«Υπάρχει σοβαρός κίνδυνος τυχαίας κλιμάκωσης μεταξύ στρατιωτικών δυνάμεων», λέει.

«Όταν κλιμακώνετε αποφάσεις σε, ας πούμε, ένα περιβάλλον tinderbox όπως το Στενό της Ταϊβάν, μεγεnθύνετε τον κίνδυνο τεράστιας ζημίας».
Το πιο καταστροφικό σενάριο για το οποίο προειδοποιούν οι ειδικοί είναι ότι δύο ανταγωνιστικά συστήματα τεχνητής νοημοσύνης ενδέχεται να συνεχίσουν να κλιμακώνουν μια σύγκρουση μέσω της δικής τους λήψης αποφάσεων. Υπάρχουν ακόμη και ανησυχίες ότι αυτό θα μπορούσε να προκαλέσει πυρηνικό πόλεμο.

Ωστόσο, παρά αυτές τις ανησυχίες, υπάρχει αξιοσημείωτα μικρή ρύθμιση γύρω από αυτά τα όπλα.
“Προς το παρόν, δεν υπάρχουν ειδικοί κανονισμοί σχετικά με τον τρόπο με τον οποίο οι χώρες χρησιμοποιούν την τεχνητή νοημοσύνη και την αυτονομία στον πόλεμο”, λέει ο Scharre.

“Νομίζω ότι η προεπιλεγμένη τροχιά είναι “χωρίς πρόσθετα προστατευτικά κιγκλιδώματα” – και οι στρατοί είναι μόνοι τους για να καταλάβουν πώς τη χρησιμοποιούν.”
Όσοι ανησυχούν για τα αυτόνομα όπλα έχουν έναν πολύ ισχυρό φίλο: τον Γενικό Γραμματέα του ΟΗΕ.
Την Παρασκευή, ο Αντόνιο Γκουτέρες είπε: «Κανένα μέρος των αποφάσεων ζωής και θανάτου που επηρεάζουν ολόκληρες οικογένειες δεν πρέπει να ανατεθεί στον ψυχρό υπολογισμό των αλγορίθμων».
Αλλά η προσπάθεια εξεύρεσης συμφωνίας μεταξύ υπερδυνάμεων όπως οι ΗΠΑ, η Κίνα και η Ρωσία, για τον περιορισμό της χρήσης αυτών των όπλων είναι ένας δύσκολος αγώνας.
Και αυτό που πιθανότατα σημαίνει είναι ένας συνεχιζόμενος πόλεμος όπλων AI.

Πηγή: BBC απόδοση anixneuseis.gr

Πηγή: https://i-epikaira.blogspot.com/2024/04/blog-post_26.html

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου