medlabnews.gr iatrikanea
Το νέο καινοτόμο εργαλείο Τεχνητής Νοημοσύνης που ανέπτυξε η Microsoft, με την ονομασία VASA-1, μπορεί να δημιουργήσει βίντεο με ήχο από μία μόνο εικόνα. Η νέα τεχνολογία κατάφερε να εντυπωσιάσει και να «κλέψει» τις εντυπώσεις, αν και δεν έλειψαν τα «καμπανάκια» ειδικών που προειδοποιούν ότι η χρήση του από λάθος χέρια μπορεί να περάσει το deepfake σε άλλο επίπεδο.
Τι είναι το VASA-1; Τα αρχικά σημαίνουν Visual Affective Skills Audio και πρόκειται για ένα artificial intelligence framework που φιλοδοξεί να αλλάξει τις ψηφιακές επικοινωνίες. Τι μπορεί να κάνει; Η εξαιρετικά προηγμένη τεχνητή νοημοσύνη παράγει απίστευτα ρεαλιστικά deep fake βίντεο, για τα οποία χρειάζεται μόνο μια φωτογραφία ενός ανθρώπου και μια μόνο σύντομη ηχογράφηση της φωνής του.
Στην πράξη, το VASA-1 μπορεί από μία μόνο εικόνα και ένα ηχητικό κλιπ να δημιουργήσει συγκλονιστικά ρεαλιστικά πλάνα, με ρεαλιστικές κινήσεις και εκφράσεις των χειλιών «θολώνοντας» τα όρια μεταξύ αληθινών και κατασκευασμένων βίντεο.
Ο αμερικανικός κολοσσός επισημαίνει ότι προχωρά στην εν λόγω τεχνολογία δίνοντας τη δέουσα προσοχή και σοβαρότητα και με πλήρη επίγνωση της δύναμης της τεχνολογίας. Όπως επισημαίνει, το VASA-1 «είναι ικανό όχι μόνο να παράγει πολύτιμο συγχρονισμό ήχου και εικόνας, αλλά και να καταγράφει ένα μεγάλο φάσμα συναισθημάτων και εκφραστικών αποχρώσεων του προσώπου και φυσικές κινήσεις του κεφαλιού που συμβάλλουν στην αντίληψη του ρεαλισμού».
Το σύστημα παράγει βίντεο υψηλής ανάλυσης και μπορεί να δημιουργήσει ζωντανά βίντεο με ομιλούντα πρόσωπα σε πραγματικό χρόνο.
Στην κατεύθυνση αυτή, θα μπορούσε να προσφέρει εκπαιδευτικά εργαλεία με ζωντανές ιστορικές φιγούρες ή εικονικούς βοηθούς που προσφέρουν υποστήριξη και θεραπευτικά οφέλη.
Τα αποτελέσματα είναι τόσο πιστευτά που σχεδόν περνιούνται για πραγματικά βίντεο και προφανώς…τρομάζουν. Η ικανότητα του μοντέλου να μιμείται τις φυσικές κινήσεις του κεφαλιού και ένα ευρύ φάσμα συναισθημάτων είναι απαράμιλλη και σηματοδοτεί ένα πολύ σημαντικό άλμα προς τα εμπρός όσον αφορά το animation με τεχνητή νοημοσύνη.
Το ερώτημα των ειδικών και των ξένων μέσων ενημέρωσης είναι όμως τι θα μπορούσε να συμβεί αν «πέσει σε λάθος χέρια», αφού αυξάνονται οι ανησυχίες για εξαιρετικά πειστικά deepfakes ικανά να διαδώσουν παραπληροφόρηση και να υπονομεύσουν την εμπιστοσύνη του κόσμου.
Ως εκ τούτου, η Microsoft τονίζει ότι μιλάμε ακόμη για ένα ερευνητικό εγχείρημα, σημειώνοντας ότι «Όπως και άλλες σχετικές τεχνικές δημιουργίας περιεχομένου, θα μπορούσε να εξακολουθήσει να γίνεται κατάχρηση για την πλαστοπροσωπία ανθρώπων. Είμαστε αντίθετοι σε οποιαδήποτε συμπεριφορά για τη δημιουργία παραπλανητικού ή επιβλαβούς περιεχομένου πραγματικών προσώπων»
Εμφανίζεται δε καθησυχαστική, τονίζοντας ότι θα περιμένει ισχυρούς κανονισμούς πριν το λανσάρισμά του νέου εργαλείου.
Η τεχνολογία μπορεί μελλοντικά να φέρει τα πάνω κάτω όχι μόνο στις επικοινωνίες, αλλά και σε βιομηχανίες όπως το gaming και ο κινηματογράφος. Τα social media ήδη έχουν σοκαριστεί με τις δυνατότητές του VASA-1, το οποίο πέρα από φωτογραφίες πραγματικών ανθρώπων, μπορεί να ζωντανέψει μέχρι και πίνακες.
Είναι από τις περιπτώσεις που τα πολλά λόγια περισσεύουν, οπότε σας αφήνουμε να παρακολουθήσετε μερικά από τα παραδείγματα χρήσης του μοντέλου που δόθηκαν στα φώτα της δημοσιότητας, παρουσιάζοντας τις προηγμένες του δυνατότητες. Το αποκορύφωμα είναι η Mona Lisa να…ραπάρει:
2. Realism and liveliness - example 1 pic.twitter.com/Kz0Bm2NRNy
— Min Choi (@minchoi) April 18, 2024
Δεν υπάρχουν σχόλια
Δημοσίευση σχολίου