Η χειραγώγηση, συκοφαντία και εξαπάτηση της τεχνητής νοημοσύνης. Μπορεί να γίνουμε υποχείρια του Artificial intelligence (AI); | MEDLABNEWS.GR / IATRIKA NEA

Responsive Ad Slot

Slider

Η χειραγώγηση, συκοφαντία και εξαπάτηση της τεχνητής νοημοσύνης. Μπορεί να γίνουμε υποχείρια του Artificial intelligence (AI);

Βρισκόμαστε άραγε μία ανάσα από το να γίνουμε υποχείρια της τεχνητής νοημοσύνης;

επιμέλεια medlabnews.gr iatrikanea

Από τη στιγμή που αλγόριθμος αποφασίζει αυτόματα να κατεβάσει μια φωτογραφία που ανεβάσατε στο facebook ή σε άλλα κοινωνικό δίκτυα και η φωτογραφία φυσικά δεν έχει τίποτα που να παραβιάζει τους κανόνες (πχ ένας γιατρός που εξετάζει τον λαιμό του ασθενούς του) τότε τα πράγματα γίνονται περίπλοκα αλλά και επικίνδυνα.

Βρισκόμαστε άραγε μία ανάσα από το να γίνουμε υποχείρια της τεχνητής νοημοσύνης; Όσοι εργάζονται στον κλάδο της τεχνητής νοημοσύνης έχουν επίσης εκδώσει προειδοποιήσεις σχετικά με την πολύ γρήγορη ανάπτυξη και εφαρμογή της τεχνολογίας.

Για κάποιους μπορεί να μοιάζει υπερβολή, ωστόσο φαίνεται να υπάρχουν λόγοι ανησυχίας, σύμφωνα με νέα μελέτη.

Όπως συμβαίνει με κάθε μεγάλη τεχνολογική αλλαγή, πολλοί άνθρωποι αναρωτιούνται αν η τεχνολογία κινείται γρηγορότερα από ό,τι μπορούμε να την ελέγξουμε.

Αυτό μάλλον θα συμβεί με την τεχνητή νοημοσύνη η οποία είναι σε θέση να μαθαίνει και να εφαρμόζει τις γνώσεις της πολύ γρήγορα.

Χειραγώγηση, συκοφαντία και εξαπάτηση

Οι ερευνητές της μελέτης, η οποία δημοσιεύθηκε στο περιοδικό Patterns, ανέφεραν ότι τα συστήματα τεχνητής νοημοσύνης έχουν ήδη δείξει την ικανότητα να εξαπατούν τους ανθρώπους. Έχουν χρησιμοποιήσει τεχνικές χειραγώγησης, συκοφαντίας και εξαπάτησης στις προσπάθειές τους και γίνονται όλο και καλύτερες.

«Τα συστήματα τεχνητής νοημοσύνης είναι ήδη ικανά να εξαπατούν τους ανθρώπους», γράφουν οι ερευνητές στη μελέτη. «Μεγάλα γλωσσικά μοντέλα και άλλα συστήματα έχουν ήδη μάθει, από την εκπαίδευσή τους, την ικανότητα να εξαπατούν μέσω τεχνικών όπως η χειραγώγηση, η συκοφαντία και η εξαπάτηση του τεστ ασφαλείας», εξηγούν.

Εάν αυτό σας φαίνεται αρκετά αγχωτικό, υπάρχουν ακόμη μεγαλύτερα ζητήματα βραχυπρόθεσμα και μακροπρόθεσμα.

«Οι αυξανόμενες ικανότητες της τεχνητής νοημοσύνης στην παραπλάνηση εγκυμονούν σοβαρούς κινδύνους, που κυμαίνονται από βραχυπρόθεσμους κινδύνους, όπως η απάτη και η αλλοίωση των εκλογών, μέχρι μακροπρόθεσμους κινδύνους, όπως η απώλεια του ελέγχου των συστημάτων τεχνητής νοημοσύνης», επισημαίνουν οι ερευνητές.

«Χρειάζονται προληπτικές ενέργειες, όπως ρυθμιστικά πλαίσια για την αξιολόγηση των κινδύνων εξαπάτησης της τεχνητής νοημοσύνης, νόμοι που απαιτούν διαφάνεια σχετικά με τις αλληλεπιδράσεις της και περαιτέρω έρευνα για την ανίχνευση και την πρόληψη της εξαπάτησης της.

»Η αντιμετώπιση του προβλήματος είναι ζωτικής σημασίας για να διασφαλιστεί ότι η τεχνητή νοημοσύνη θα λειτουργεί ως μια ευεργετική τεχνολογία που θα ενισχύει και όχι θα αποσταθεροποιεί την ανθρώπινη γνώση, τον λόγο και τους θεσμούς».

Όσοι εργάζονται στον κλάδο της τεχνητής νοημοσύνης έχουν επίσης εκδώσει προειδοποιήσεις σχετικά με την ανάπτυξη και την εφαρμογή της τεχνολογίας.

Deepfake απάτες έχουν κοστίσει εκατομμύρια σε εταιρείες

Ένα deepfake είναι ένα βίντεο, ήχος ή εικόνα ενός πραγματικού ατόμου που έχει ψηφιακά αλλοιωθεί και χειραγωγηθεί, συχνά μέσω τεχνητής νοημοσύνης.

Ένα αυξανόμενο κύμα απάτης με deepfake έχει κλέψει εκατομμύρια δολάρια από εταιρείες σε όλο τον κόσμο, και οι ειδικοί της κυβερνοασφάλειας προειδοποιούν ότι θα μπορούσε να επιδεινωθεί καθώς οι εγκληματίες χρησιμοποιούν γενετική τεχνητή νοημοσύνη για απάτες.

Σε μία από τις μεγαλύτερες γνωστές περιπτώσεις φέτος, ένας εργαζόμενος σε οικονομικές υπηρεσίες στο Χονγκ Κονγκ εξαπατήθηκε και μεταβίβασε περισσότερα από 25 εκατομμύρια δολάρια σε απατεώνες που χρησιμοποιούσαν τεχνολογία deepfake και μεταμφιέστηκαν σε συναδέλφους σε βιντεοκλήση, ανέφεραν οι αρχές στα τοπικά μέσα ενημέρωσης τον Φεβρουάριο.

Η Arup επιβεβαίωσε ότι «ψευδείς φωνές και εικόνες» χρησιμοποιήθηκαν στο περιστατικό, προσθέτοντας ότι «ο αριθμός αυτών των επιθέσεων έχει αυξηθεί σημαντικά τους τελευταίους μήνες».

Τα κινέζικα κρατικά μέσα ενημέρωσης ανέφεραν μια παρόμοια περίπτωση στην επαρχία Shanxi, όπου μια γυναίκα υπάλληλος οικονομικών εξαπατήθηκε και μεταβίβασε 1,86 εκατομμύρια γιουάν (262.000 δολάρια) σε λογαριασμό χάκερ μετά από βιντεοκλήση με deepfake του αφεντικού της.

Το 2019, ο διευθύνων σύμβουλος μιας βρετανικής ενεργειακής εταιρείας φέρεται να μετέφερε 220.000 ευρώ (238.000 δολάρια) σε έναν χάκερ που είχε ψηφιακά μιμηθεί τον επικεφαλής της μητρικής του εταιρείας και ζήτησε μια μεταφορά σε έναν υποτιθέμενο προμηθευτή σε τηλεφωνική κλήση.

Τον Αύγουστο του περασμένου έτους, ερευνητές της εταιρείας κυβερνοασφάλειας Mandiant, η οποία ανήκει στην Google, κατέγραψαν αρκετές περιπτώσεις παράνομων δραστών που χρησιμοποιούσαν την τεχνολογία AI και deepfake για απάτες phishing, παραπληροφόρηση και άλλες παράνομες τεχνικές.

Τότε, η εταιρεία δήλωσε ότι η χρήση της τεχνολογίας για τέτοιες δραστηριότητες ήταν περιορισμένη, αλλά η αυξανόμενη διαθεσιμότητα νέων εργαλείων γεννητικής AI θα επιταχύνει την εφαρμογή της από κακόβουλους παράγοντες.

Ευρύτερες επιπτώσεις

Εκτός από τις άμεσες επιθέσεις, οι εταιρείες ανησυχούν όλο και περισσότερο για άλλους τρόπους με τους οποίους οι deepfake φωτογραφίες, βίντεο ή ομιλίες των ανωτέρων τους θα μπορούσαν να χρησιμοποιηθούν με κακόβουλους τρόπους, λένε οι ειδικοί κυβερνοασφάλειας.

Σύμφωνα με τον Jason Hogg, ειδικό κυβερνοασφάλειας και συνεργάτη εκτελεστικών στελεχών στην Great Hill Partners, τα deepfakes υψηλόβαθμων στελεχών εταιρειών μπορούν να χρησιμοποιηθούν για τη διάδοση ψευδών ειδήσεων για να χειριστούν τις τιμές των μετοχών, να δυσφημίσουν την εταιρεία και τις πωλήσεις της, και να διαδώσουν άλλη επιβλαβή παραπληροφόρηση.

Ειδικός πράκτορας του FBI, επισήμανε ότι η γεννητική AI μπορεί να δημιουργήσει deepfakes βασισμένα σε πλήθος ψηφιακών πληροφοριών, όπως περιεχόμενο που είναι διαθέσιμο στο κοινό στα κοινωνικά δίκτυα και άλλες πλατφόρμες μέσων.

Το 2022, ο Patrick Hillmann, επικεφαλής επικοινωνίας της Binance, ισχυρίστηκε σε μια ανάρτηση στο blog του ότι απατεώνες είχαν δημιουργήσει ένα deepfake του βασισμένο σε προηγούμενες συνεντεύξεις και τηλεοπτικές εμφανίσεις, χρησιμοποιώντας το για να εξαπατήσουν πελάτες και επαφές σε συναντήσεις.

Ο Fairman της Netskope είπε ότι τέτοια ρίσκα έχουν οδηγήσει ορισμένα στελέχη να αρχίσουν να διαγράφουν ή να περιορίζουν την παρουσία τους στο διαδίκτυο από φόβο ότι θα μπορούσε να χρησιμοποιηθεί ως πυρομαχικό από κυβερνοεγκληματίες.

Η τεχνολογία deepfake έχει ήδη γίνει ευρέως διαδεδομένη εκτός του εταιρικού κόσμου Από ψεύτικες πορνογραφικές εικόνες έως βίντεο που προωθούν σκεύη μαγειρικής, διασημότητες όπως η Taylor Swift έχουν πέσει θύματα της τεχνολογίας deepfake. Τα deepfakes σε πολιτικά πρόσωπα έχουν επίσης εξαπλωθεί.

Εν τω μεταξύ, ορισμένοι απατεώνες έχουν δημιουργήσει deepfakes μελών της οικογένειας και φίλων ατόμων σε προσπάθειες να τους εξαπατήσουν για χρήματα.

Σύμφωνα με τον Hogg, τα ευρύτερα θέματα θα επιταχυνθούν και θα χειροτερέψουν για ένα διάστημα καθώς η πρόληψη του κυβερνοεγκλήματος απαιτεί προσεκτική ανάλυση για την ανάπτυξη συστημάτων, πρακτικών και ελέγχων για την άμυνα κατά των νέων τεχνολογιών.

Ωστόσο, οι ειδικοί κυβερνοασφάλειας δήλωσαν στο CNBC ότι οι εταιρείες μπορούν να ενισχύσουν την άμυνα τους ενάντια στις απειλές που στηρίζονται στην AI μέσω βελτιωμένης εκπαίδευσης προσωπικού, δοκιμών κυβερνοασφάλειας και απαιτώντας κωδικούς λέξεων και πολλαπλές εγκρίσεις για όλες τις συναλλαγές — κάτι που θα μπορούσε να είχε αποτρέψει περιπτώσεις όπως αυτή της Arup.

Πηγή: cnbc

ΓΡΑΨTΕ ΤΟ E-MAIL ΣΑΣ ΓΙΑ ΝΑ ΛΑΜΒΑΝΕΤΕ

ΜΟΝΟ ΤΙΣ ΝΕΕΣ ΜΑΣ ΑΝΑΡΤΗΣΕΙΣ.

ΟΠΟΤΕ ΤΟ ΘΕΛΗΣΕΤΕ ΔΙΑΓΡΑΦΕΣΤΕ!

Ακολουθήστε το medlabnews.gr στο Google News και μάθετε πρώτοι τις ειδήσεις

0

Δεν υπάρχουν σχόλια

blogger
Copyright © 2015-2022 MEDLABNEWS.GR / IATRIKA NEA All Right Reserved. Τα κείμενα είναι προσφορά και πνευματική ιδιοκτησία του medlabnews.gr
Kάθε αναδημοσίευση θα πρέπει να αναφέρει την πηγή προέλευσης και τον συντάκτη. Aπαγορεύεται η εμπορική χρήση των κειμένων