Liang Wenfeng: Ο 40χρονος «σπασίκλας» της DeepSeek που φέρνει πανικό στις ΗΠΑ

Liang Wenfeng: Ο 40χρονος «σπασίκλας» της DeepSeek που φέρνει πανικό στις ΗΠΑ

Τετάρτη, 29/01/2025 - 17:19

Ποιος βρίσκεται πίσω από τη DeepSeek, του κινεζικού αντιπάλου του ChatGPT, που είναι πολύ πιο φτηνή σε σχέση με τους αμερικανικούς κολοσσούς της τεχνητής νοημοσύνης (ΑΙ), και προκαλεί πανικό στις ΗΠΑ και πτώση στο χρηματιστήριο της Γουόλ Στριτ;

Ο λόγος για τον 39χρονο Liang Wenfeng, ιδρυτή της κινεζικής νεοσύστατης επιχείρησης τεχνητής νοημοσύνης, ο οποίος έγινε μέσα σε λίγες εβδομάδες το πρόσωπο της τεχνολογικής βιομηχανίας της Κίνας.

Ως «σπασίκλας» των μαθηματικών που είχε όραμα να δημιουργήσει τεχνητή νοημοσύνη ανθρώπινου επιπέδου, ο Liang μίλησε στους συναδέλφους του νωρίτερα στην καριέρα του για τα σχέδιά του, αλλά αντιμετωπίστηκε με σκεπτικισμό.

«Όταν τον πρωτογνωρίσαμε, ήταν ένας πολύ σπασίκλας με απαίσιο χτένισμα που μιλούσε για τη δημιουργία ενός cluster 10.000 τσιπ για να εκπαιδεύσει τα δικά του μοντέλα. Δεν τον πήραμε στα σοβαρά», δήλωσε στους Financial Times ένας από τους συνεργάτες του.

«Δεν μπορούσε να εκφράσει το όραμά του παρά μόνο να πει: Θέλω να το φτιάξω αυτό και θα αλλάξει το παιχνίδι».

Γιος δύο δασκάλων δημοτικού σχολείου, ο Liang μεγάλωσε στην πόλη-λιμάνι Zhanjiang και ήταν μαθητής με άριστα και πάθος για τα μαθηματικά.

Δίδασκε μόνος του μαθηματικά εκτός των μαθημάτων, ενώ στο γυμνάσιο, και ο πρώην δάσκαλός του είπε στους δημοσιογράφους ότι πάντα φρόντιζε να μπορεί να ισορροπεί «εργασία και ξεκούραση, σαν να μπορούσε να μάθει καλά κάθε μάθημα χωρίς να ξοδεύει πολύ χρόνο στη μελέτη».

Έχοντας σπουδάσει μαθηματικά πανεπιστημιακού επιπέδου ενώ ήταν ακόμα νεαρός έφηβος, ο Liang συνέχισε να σπουδάζει τεχνολογία πληροφοριών στο διάσημο Πανεπιστήμιο Zhejiang της Κίνας.

Το κολέγιο εδρεύει στο Χανγκτσόου, ένα τεχνολογικό κέντρο, αλλά ξεκίνησε την καριέρα του στα χρηματοοικονομικά.

Η πρώτη εταιρεία

Λίγα χρόνια μετά την αποφοίτησή του ίδρυσε την επενδυτική εταιρεία Jacobi, που πήρε το όνομά της από τον Γερμανό μαθηματικό Carl Jacobi.

Το 2015, ίδρυσε το High-Flyer, το οποίο θα γινόταν ένα από τα κορυφαία hedge funds της Κίνας και θα του δημιουργούσε μια περιουσία, χρησιμοποιώντας τεχνητή νοημοσύνη και αλγορίθμους για να εντοπίζει μοτίβα που θα επηρέαζαν τις τιμές των μετοχών.

Η ομάδα του χρησιμοποιούσε μικροτσίπ της Nvidia και λέγεται ότι πήρε τους καλύτερους ανθρώπους του μαζί του από την εταιρεία για να ιδρύσει την DeepSeek το 2023.

Ο Liang προσέλαβε πολλούς νέους απόφοιτους από τα κορυφαία σχολεία της Κίνας, λέγοντας σε πρόσφατη συνέντευξή του ότι τα κριτήρια επιλογής της εταιρείας του ήταν το «πάθος και η περιέργεια».

Λέγεται ότι εμπλέκεται σε μεγάλο βαθμό στην καθημερινή λειτουργία της εταιρείας και προωθεί μια ελεύθερη και συνεργατική κουλτούρα, σύμφωνα με έναν πρώην υπάλληλο.

Κοιμόταν στο γραφείο

Ο διευθύνων σύμβουλος λέγεται ότι δούλευε μέχρι αργά τη νύχτα με την ομάδα του, αναφέρει η Wall Street Journal, και κοιμόταν ακόμη και στο γραφείο καθώς έτρεχαν να ολοκληρώσουν τα έργα.

Η απόφασή του να καταστήσει τον κώδικα της DeepSeek ανοιχτού κώδικα ήταν καθοριστική, καθώς ήθελε να αντισταθεί στην τάση των μεγάλων τεχνολογικών εταιρειών.

«Για τους τεχνολόγους, το να παρακολουθούν άλλοι τη δουλειά σου δίνει μια μεγάλη αίσθηση ολοκλήρωσης», δήλωσε σε συνέντευξή του πέρυσι στο 36Kr. «Ο ανοιχτός κώδικας είναι περισσότερο μια κουλτούρα παρά μια εμπορική συμπεριφορά και η συνεισφορά σε αυτόν μας κερδίζει το σεβασμό».

Το Πεκίνο άρχισε επιτέλους να δίνει προσοχή στην DeepSeek τις τελευταίες εβδομάδες, με τους ειδικούς να λένε ότι ενώ αρχικά δεν ήταν «ο εκλεκτός» των κινεζικών νεοφυών επιχειρήσεων τεχνητής νοημοσύνης, η ταχεία άνοδός της θα την οδηγήσει στο να έχει πρόσβαση σε πόρους και να θεωρείται παράδειγμα.

Με τα σχέδια του Liang για την DeepSeek να αποδίδουν τώρα, τα κινεζικά κρατικά μέσα ενημέρωσης πανηγύρισαν για το έργο της εταιρείας που δείχνει ότι ακόμη και με περιορισμένη υπολογιστική ισχύ, οι εταιρείες μπορούν να «δημιουργήσουν θαύματα».

Αναγνώριση από το Πεκίνο

Ο Liang, σύμφωνα με το Reuters, είχε κρατήσει εξαιρετικά χαμηλό προφίλ μέχρι τις 20 Ιανουαρίου, όταν ήταν ένα από τα εννέα άτομα που κλήθηκαν να δώσουν ομιλία σε ένα συνέδριο κεκλεισμένων των θυρών που διοργάνωσε ο πρωθυπουργός της Κίνας Λι Κιάνγκ.

Πέρυσι και το 2023 έδωσε δύο σπάνιες συνεντεύξεις στο κινεζικό μέσο ενημέρωσης Waves, αλλά πέρα από αυτό έχει μείνει κυρίως μακριά από τα φώτα της δημοσιότητας.

Στο συνέδριο, η νεανική εμφάνιση του millennial ήρθε σε αντίθεση με τους γκριζομάλληδες ακαδημαϊκούς, αξιωματούχους και επικεφαλής κρατικών ομίλων που κάθονταν γύρω του, όπως έδειξαν φωτογραφίες και βίντεο που δημοσίευσε ο κινεζικός ραδιοτηλεοπτικός οργανισμός CCTV.

Όμως το γεγονός ότι ο Liang προσκλήθηκε να μοιραστεί τις απόψεις του σχετικά με την πολιτική της κινεζικής κυβέρνησης υπογραμμίζει την αναγνώριση από το Πεκίνο του ρόλου της DeepSeek στην πιθανή ανατροπή της παγκόσμιας τάξης τεχνητής νοημοσύνης, υπέρ της Κίνας.

Η DeepSeek λάνσαρε την περασμένη εβδομάδα έναν δωρεάν βοηθό τεχνητής νοημοσύνης που, σύμφωνα με την εταιρεία, χρησιμοποιεί λιγότερα δεδομένα σε ένα κλάσμα του κόστους των σημερινών υπηρεσιών, προκαλώντας παγκόσμιο «ξεπούλημα» στις μετοχές τεχνολογίας.

Πέρυσι, ο διευθύνων σύμβουλος της Baidu Robin Li μίλησε σε παρόμοιο συνέδριο υπό την προεδρία του Κινέζου πρωθυπουργού. Ο Li, ο οποίος ανακοίνωσε ότι ο πρώτος αντίπαλος του ChatGPT της Κίνας θα γίνει τον Μάρτιο του 2023, δήλωσε σε συνέντευξή του την ίδια χρονιά ότι η Κίνα δεν θα αναδημιουργήσει ποτέ την επιτυχία του OpenAI που υποστηρίζεται από τη Microsoft και ότι οι κινεζικές επιχειρήσεις θα πρέπει να επικεντρωθούν στην εφαρμογή των υφιστάμενων μοντέλων τεχνητής νοημοσύνης για εμπορικούς σκοπούς.

Υπό την ηγεσία του Liang, η DeepSeek απέφυγε σκόπιμα την κατασκευή εφαρμογών. Αντ’ αυτού, συγκέντρωσε το ερευνητικό ταλέντο και τους πόρους της στη δημιουργία ενός μοντέλου που θα μπορούσε να ταιριάξει ή και να βελτιώσει το OpenAI, και ελπίζει ότι στο μέλλον θα συνεχίσει να επικεντρώνεται σε μοντέλα αιχμής που θα χρησιμοποιηθούν από άλλες εταιρείες για την κατασκευή προϊόντων τεχνητής νοημοσύνης που απευθύνονται σε καταναλωτές και επιχειρήσεις.

Η προσέγγιση του Liang ξεχώρισε σε μια κινεζική τεχνολογική βιομηχανία που είχε συνηθίσει να παίρνει καινοτομίες από το εξωτερικό, από εφαρμογές για smartphone έως ηλεκτρικά οχήματα, και να τις επεκτείνει γρήγορα, συχνά πολύ πιο γρήγορα από τις χώρες στις οποίες έγιναν για πρώτη φορά οι εφευρέσεις.

«Η Τεχνητή Νοημοσύνη της Κίνας δεν μπορεί να βρίσκεται στη θέση να ακολουθεί για πάντα. Συχνά λέμε ότι υπάρχει ένα χάσμα ενός ή δύο ετών μεταξύ της Τεχνητής Νοημοσύνης της Κίνας και των Ηνωμένων Πολιτειών, αλλά το πραγματικό χάσμα είναι η διαφορά μεταξύ πρωτοτυπίας και μίμησης», δήλωσε ο Liang σε συνέντευξή του στο Waves τον Ιούλιο του περασμένου έτους.

Οι συνεντεύξεις του Liang αποκαλύπτουν την πεποίθηση ότι η τεχνολογική βιομηχανία της Κίνας είχε φτάσει σε ένα σταυροδρόμι όπου δεν είχε την αυτοπεποίθηση αλλά όχι και το κεφάλαιο που απαιτείται για να εμπλακεί σε θεμελιώδεις καινοτομίες στον τομέα της έρευνας και ανάπτυξης.

Η δωρεάν εφαρμογή του DeepSeek

Η κυκλοφορία του R1, του τελευταίου μοντέλου της κινεζικής start-up, αρχικά δεν τράβηξε την προσοχή στις ΗΠΑ.

Όμως, αυτό το σαββατοκύριακο η DeepSeek (κάτω ο Liang Wenfeng, διευθύνων σύμβουλος της εταιρείας) έγινε η δωρεάν εφαρμογή την οποία κατέβασαν περισσότερο oι χρήστες από το αμερικανικό διαδικτυακό κατάστημα της Apple, ξεπερνώντας το ChatGPT της OpenAI, που ξεκίνησε την κούρσα της τεχνητής νοημοσύνης στα τέλη του 2022.

Το R1 είναι “εντυπωσιακό”, δήλωσε χθες Δευτέρα το βράδυ ο Σαμ Άλτμαν, επικεφαλής της OpenAI. “Κυρίως με δεδομένο όσα μπορούν να προσφέρουν με αυτή την τιμή”, πρόσθεσε στο X.

Οι δυνατότητες του νέου κινεζικού μοντέλου, οι οποίες θεωρούνται ισάξιες με εκείνες των αμερικανικών ηγετών του κλάδου, προκαλούν ανησυχία καθώς αποκτήθηκαν με ελάχιστο κόστος.

Διαβάστε επίσης: DeepSeek: Η κινεζική τεχνητή νοημοσύνη που απείλησε την αμερικανική υπεροχή έγινε στόχος μαζικής κυβερνοεπίθεσης

Η start-up έχει αναφέρει ότι δαπάνησε μόνο 5,6 εκατομμύρια δολάρια για την ανάπτυξή του, ένα ποσό αμελητέο σε σχέση με τα δισεκατομμύρια που επένδυσαν οι αμερικανικές εταιρείες, κυρίως για εξαρτήματα αιχμής.

“Μας παρακινεί ιδιαίτερα που έχουμε έναν νέο ανταγωνιστή”, δήλωσε ο Άλτμαν, διαβεβαιώνοντας ότι η OpenAI θα “προφανώς θα προσφέρει πολύ καλύτερα μοντέλα”.

“Το DeepSeek R1 είναι η στιγμή Σπούτνικ της ΑΙ”, δήλωσε ο Μαρκ Αντρέεσεν, επενδυτής στον τομέα της τεχνολογίας, παρομοιάζοντας το R1 με την εκτόξευση του πρώτου τεχνητού δορυφόρου από την Σοβιετική Ένωση το 1957, ένα γεγονός που είχε ξαφνιάσει τον δυτικό κόσμο.

Ανταγωνισμός ΗΠΑ-Κίνας και η κατάρρευση της Nvidia

Για να διατηρήσουν την κυρίαρχη θέση τους στον τομέα της τεχνητής νοημοσύνης οι ΗΠΑ επέβαλαν ελέγχους στις εξαγωγές των ημιαγωγών αιχμής.

Καθώς είναι κινεζική, η DeepSeek δεν είχε κατά συνέπεια πρόσβαση στα ακριβά και υπερσύγχρονα τσιπ της καλιφορνέζικης εταιρείας Nvidia, τα οποία χρησιμοποιούνται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, όπως το ChatGPT.

“Εάν η Κίνα ξεπεράσει γρήγορα τις ΗΠΑ στην κούρσα της ΑΙ, η οικονομία της τεχνητής νοημοσύνης θα ανατραπεί”, προειδοποίησε η Καθλίν Μπρουκς, διευθύντρια ερευνών στην XTB, σε σημείωμα προς τους πελάτες.

Η Nvidia, η οποία απογειώθηκε τα τελευταία δύο χρόνια χάρη στη μεγάλη ζήτηση για τα εξαρτήματά της, κατέρρευσε στο αμερικανικό χρηματιστήριο χθες, χάνοντας σχεδόν 590 δισεκατομμύρια δολάρια.

Ο Σάτια Ναντέλα, επικεφαλής της Microsoft, δήλωσε στα κοινωνικά δίκτυα ότι μια φθηνότερη τεχνητή νοημοσύνη είναι ωφέλιμη για όλους. Αλλά στο Παγκόσμιο Οικονομικό Φόρουμ του Νταβός την περασμένη εβδομάδα ζήτησε να “πάρουμε πάρα πολύ σοβαρά τις εξελίξεις στην Κίνα”.

Η εταιρεία του σχεδιάζει να επενδύσει 80 δισεκατομμύρια δολάρια στην τεχνητή νοημοσύνη φέτος. Η Meta (Facebook, Instagram) ανακοίνωσε από την πλευρά της την Παρασκευή ότι οι κεφαλαιακές της δαπάνες θα αυξηθούν τουλάχιστον κατά 60 δισεκατομμύρια δολάρια φέτος, κυρίως λόγω της ΑΙ.

Παρακολουθήσεις Νο 2: αυτή τη φορά με AI

Παρακολουθήσεις Νο 2: αυτή τη φορά με AI

Τετάρτη, 22/01/2025 - 19:01

Ευρυδίκη Μπερσή, Maria Maggiore, Leila Minano, Νικόλας Λεοντόπουλος

Από τις 2 Φεβρουαρίου οι ευρωπαϊκές κυβερνήσεις θα χρησιμοποιούν εργαλεία AI κατά των πολιτών τους σε δημόσιους χώρους. Η έρευνα «Εφ.Συν.» - Investigate Europe - Reporters United τεκμηριώνει με έγγραφα ότι η κυβέρνηση Μητσοτάκη έπαιξε παρασκηνιακό όσο και πρωταγωνιστικό ρόλο στην απόρριψη περιορισμών στη χρήση της ΑΙ, ανοίγοντας τον δρόμο για μαζικές και ανεξέλεγκτες παρακολουθήσεις με την επίφαση της εθνικής ασφάλειας. Οπως ακριβώς συνέβη και στο σκάνδαλο των υποκλοπών. Αυτή τη φορά, όμως, με όπλο την Τεχνητή Νοημοσύνη.

Η 2α Φεβρουαρίου πέφτει Κυριακή. Από εκείνη τη μέρα, το δικαίωμά μας να χανόμαστε στο πλήθος θα καταργηθεί. Οι ευρωπαϊκές κυβερνήσεις θα έχουν, και με τη βούλα του νόμου, τη δυνατότητα να χρησιμοποιούν τεχνολογίες Τεχνητής Νοημοσύνης (AI) για να παρακολουθούν και να αναλύουν τη συμπεριφορά πολιτών σε δημόσιους χώρους, χρησιμοποιώντας τεχνολογίες αναγνώρισης προσώπων αλλά και συναισθημάτων, τόσο σε πραγματικό χρόνο όσο και εκ των υστέρων.

Αυτό το δυστοπικό –κυριολεκτικά και μεταφορικά– αύριο είναι επίτευγμα (και) της κυβέρνησης Μητσοτάκη. Για δύο λόγους:

Πρώτον, με παρέμβασή της ζήτησε –και πέτυχε– να επεκταθεί η χρήση της AI στις φυλακές και τις συνοριακές ζώνες, απλώνοντας ένα δίχτυ μαζικής και αδιάκριτης παρακολούθησης των πολιτών σε εκτεταμένες περιοχές της χώρας.

Δεύτερον, ενώ πολλές άλλες κυβερνήσεις ζήτησαν να θεσμοθετηθούν δικλίδες ασφαλείας, η ελληνική κυβέρνηση ήταν η μόνη από τα κράτη-μέλη που τις απέρριψε όλες (και τις πέντε!). Μάλιστα σε δύο από τις πέντε ήταν μόνη της απέναντι στα άλλα κράτη-μέλη!

Η πολύχρονη διαπραγμάτευση για τον νέο ευρωπαϊκό νόμο για την Τεχνητή Νοημοσύνη (AI Act) είχε ως διακύβευμα την απαγόρευση της χρήσης ΑΙ στον δημόσιο χώρο – εκτός εξαιρέσεων. Ομως η έρευνα των Investigate Europe - Reporters United - «Εφ.Συν.» [διαβάστε το δημοσίευμα των Reporters United ΕΔΩ] δείχνει ότι καθολική απαγόρευση στην πραγματικότητα δεν θα υπάρξει. Οι ευρωπαϊκές κυβερνήσεις όρισαν ποιες θα μπορούσαν να είναι οι χρήσεις της Τεχνητής Νοημοσύνης που εγκυμονούν κινδύνους και στη συνέχεια, με μια σειρά εξαιρέσεων, αναίρεσαν τον εαυτό τους επιτρέποντας τη χρήση τους από τις αρχές ασφαλείας – αλλά και από κάθε ιδιωτική εταιρεία που συνεργάζεται με αυτές.

Αποκτήσαμε πρόσβαση σε 100 εμπιστευτικά έγγραφα που περιγράφουν τις διαπραγματεύσεις για τον νέο ευρωπαϊκό νόμο, οι οποίες ολοκληρώθηκαν στα τέλη του 2023. Το συμπέρασμα: Κάθε φορά που μία κυβέρνηση, συνήθως η γαλλική, ζητούσε να διευρυνθεί η χρήση της ΑΙ, παραδείγματος χάριν για να κατηγοριοποιούν οι Αρχές τους πολίτες ανάλογα με τις πεποιθήσεις τους, για να συντάσσουν καταλόγους με πιθανούς μελλοντικά παραβάτες ή για να αναλύουν σε πραγματικό χρόνο ποιοι είναι οι πιο θυμωμένοι σε ένα πλήθος, η ελληνική κυβέρνηση παρακολουθούσε χωρίς να διαφωνεί.

Στις 29 Νοεμβρίου 2023, ο εκπρόσωπος της ελληνικής κυβέρνησης ζήτησε να μην ισχύει κανένας περιορισμός στη χρήση των εργαλείων Τεχνητής Νοημοσύνης σε πραγματικό χρόνο όταν πρόκειται για συνοριακές περιοχές και φυλακές.

Αυτό προκύπτει από αναφορά της γερμανικής διπλωματικής αποστολής που περιγράφει τη συνεδρίαση. Το έγγραφο περιλαμβάνεται σε αυτά που ήρθαν στην κατοχή μας. Η Ελλάδα «ζήτησε να εξαιρεθούν ρητά οι συνοριακές περιοχές και οι φυλακές από τον ορισμό του “δημόσια προσβάσιμου χώρου”, σε ό,τι αφορά τη χρήση RBI σε πραγματικό χρόνο» (RBI, δηλαδή Remote Biometric Identification, είναι η ταυτοποίηση βιομετρικών στοιχείων μέσω καμερών από τις αρχές ασφαλείας). Αν οι συνοριακές περιοχές και οι φυλακές δεν θεωρούνται «δημόσιος χώρος», τότε όποιοι περιορισμοί κι αν τεθούν στη χρήση βιομετρικών εργαλείων στον δημόσιο χώρο δεν θα τις αφορούν. Τα συστήματα ταυτοποίησης σε πραγματικό χρόνο περιλαμβάνονται στον κατάλογο των «εφαρμογών τεχνητής νοημοσύνης υψηλού κινδύνου» για τα θεμελιώδη δικαιώματα. Οι καθηγήτριες του Πανεπιστημίου του Μάαστριχτ, Αλις Τζανίνι και Σάρα Τας, εξηγούν: «Τα συστήματα RBI ταυτοποιούν άτομα που μπορεί να μην αποτελούν επισήμως αντικείμενο αστυνομικής έρευνας, να μην είναι ύποπτοι, αλλά απλά στοχοποιούνται. Ο όρος είναι εγγενώς ασαφής και άρα επιδέχεται πολλές ερμηνείες».

Παρ’ όλα αυτά, η Ελλάδα ζήτησε την εξαίρεση και αυτή εγκρίθηκε. Στη συνέχεια, «χάθηκε» στο κείμενο μιας πολύ ευρύτερης διατύπωσης, που επιτρέπει ακόμα περισσότερα. «Ενα κράτος-μέλος μπορεί να επιτρέψει την πλήρη ή μερική χρήση συστημάτων RBI σε πραγματικό χρόνο στον δημόσιο χώρο για λόγους τήρησης της τάξης», αναφέρει το άρθρο 5 του νέου ευρωπαϊκού νόμου για την Τεχνητή Νοημοσύνη.

Τίθενται κάποιες προϋποθέσεις, παραδείγματος χάριν να υπάρχει αντίστοιχη πρόβλεψη στην εθνική νομοθεσία ή να ενημερώνεται για τη χρήση των συστημάτων η Κομισιόν, αλλά ούτε κι αυτές ισχύουν αν ένα κράτος επικαλεστεί λόγους εθνικής ασφαλείας.

Το Ευρωπαϊκό Κοινοβούλιο προσπάθησε μάταια να αποτρέψει την εξέλιξη αυτή. «Ηταν μια από τις πιο σκληρές μάχες», μας είπε πηγή του Ευρωκοινοβουλίου που μετείχε στις διαπραγματεύσεις με τις κυβερνήσεις. «Χάσαμε».

Στη συνεδρίαση της 24ης Νοεμβρίου 2023, η Ελλάδα ζήτησε να καταργηθεί και κάθε δικλίδα ασφαλείας στη χρήση RBI εκ των υστέρων – ουσιαστικά να μην υπάρχουν όρια στην αναδρομική αξιοποίηση οπτικοακουστικού υλικού με χρήση Τεχνητής Νοημοσύνης.

Βιομετρική επιτήρηση στα σύνορα

Ζητήσαμε από τη Μόνιμη Ελληνική Αντιπροσωπεία στις Βρυξέλλες περισσότερες λεπτομέρειες για τη στάση της κυβέρνησης, αλλά δεν λάβαμε απάντηση.

Το σίγουρο είναι ότι η ελληνική κυβέρνηση δεν περιμένει την εφαρμογή του AI Act για να αξιοποιήσει τα καινούργια της εργαλεία. Οταν πραγματοποίησε την παρέμβαση υπέρ της βιομετρικής επιτήρησης στα σύνορα, τον Νοέμβριο του 2023, είχε μόλις κάνει χρήση των τεχνολογιών αυτών, στη δομή αιτούντων άσυλο της Σάμου. Αυτό αποκάλυψε διεθνής έρευνα του Solomon στα μέσα Ιανουαρίου του 2025. Η έρευνα περιγράφει τα συμβάντα του Οκτωβρίου του 2023, όταν στη δομή επικράτησε αναβρασμός λόγω των επιθέσεων της Χαμάς στο Ισραήλ και του Ισραήλ στη Γάζα. Με τη βοήθεια εικόνων από ντρόουν, που αναμεταδίδονταν στην Αθήνα, οι πύλες που χώριζαν τα διάφορα τμήματα του χρηματοδοτούμενου από την Ε.Ε. καμπ σφραγίστηκαν και πέντε αιτούντες άσυλο συνελήφθησαν.

«Οι κάμερες διαθέτουν έναν αλγόριθμο Τεχνητής Νοημοσύνης που τους επιτρέπει να εστιάζουν όπου υπάρχει αναταραχή, στέλνοντας ειδοποιήσεις τόσο στο υπουργείο Μετανάστευσης όσο και στον κόμβο καμερών της δομής», εξήγησε αρμόδιος στο Solomon.

Μια αναστάτωση σε κλειστή δομή προσφύγων για την Ελλάδα, μια διοργάνωση Ολυμπιακών Αγώνων για τη Γαλλία – κάθε χώρα βρίσκει αφορμές να δοκιμάσει και να νομιμοποιήσει τη χρήση εργαλείων τα οποία μπορεί να αποβούν πολύ επικίνδυνα για απλούς ανθρώπους που έτυχε να μοιάζουν με υπόπτους ή να έχουν καταχωριστεί σε βάση δεδομένων με πιθανούς μελλοντικά παραβάτες.

Τι αποκαλύπτει το γερμανικό έγγραφο

Ακολουθεί αυτούσιο το απόσπασμα από το γερμανικό διπλωματικό έγγραφο που αναφέρεται στην επίμαχη συνεδρίαση:

Εκ των υστέρων εξ αποστάσεως βιομετρική ταυτοποίηση (Post RBI)

1η Δικλίδα Ασφάλειας (ενημέρωση της εποπτικής αρχής): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα.

2η Δικλίδα Ασφαλείας (ενημέρωση της αρχής προστασίας δεδομένων): Υποστήριξη από Ιταλία, Δανία, Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ελλάδα.

3η Δικλίδα Ασφαλείας (διευρυμένες υποχρεώσεις εγγραφής σε μητρώα): Υποστήριξη: Ιταλία, Δανία, Ιρλανδία, Πολωνία, Μάλτα. Απόρριψη: Γερμανία, Ελλάδα.

4η Δικλίδα Ασφαλείας (δυνατότητα για τα κράτη-μέλη να υιοθετήσουν πιο περιοριστικούς εθνικούς κανόνες): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Ελλάδα.

5η Δικλίδα Ασφαλείας (υποχρέωση ενημέρωσης της Κομισιόν): Υποστήριξη από Ιρλανδία, Πολωνία, Σλοβενία, Ολλανδία, Μάλτα. Απόρριψη: Ιταλία, Δανία, Γερμανία, Ελλάδα.

Είναι χαρακτηριστική η έμμονη ιδέα της Αθήνας να αποφευχθούν με κάθε τρόπο οι θεσμικές εγγυήσεις που θα ανέμενε κανείς σε ένα σύγχρονο κράτος δικαίου. Οπως φαίνεται από το διπλωματικό έγγραφο, η κυβέρνηση Μητσοτάκη απέρριψε «την ενημέρωση της εποπτικής αρχής» και «της Αρχής Προστασίας Δεδομένων» (ΑΠΔ), αλλά και τη διεύρυνση της «υποχρέωσης εγγραφής σε μητρώα». Πρόκειται ακριβώς για ανάλογες πρακτικές με αυτές που η κυβέρνηση Μητσοτάκη χρησιμοποίησε στην υπόθεση των υποκλοπών, προκειμένου να εξουδετερώσει τα θεσμικά αντίβαρα της Αρχής Διασφάλισης του Απορρήτου των Επικοινωνιών (ΑΔΑΕ) και της ΑΠΔ.

«Η εκ των υστέρων βιομετρική ταυτοποίηση, καθώς βασίζεται σε μεγαλύτερα σετ δεδομένων και έχει περισσότερο χρόνο στη διάθεσή της για την επεξεργασία δεδομένων, μπορεί να έχει ακόμη μεγαλύτερες επιπτώσεις στα θεμελιώδη δικαιώματα και τις ελευθερίες από την ταυτοποίηση σε πραγματικό χρόνο», σημειώνουν οι καθηγήτριες Τζανίνι και Τας.

Αναγνώριση συναισθημάτων

Τα έγγραφα στα οποία είχαμε πρόσβαση δείχνουν τον ενθουσιασμό των κυβερνήσεων για τη χρήση εργαλείων προληπτικής αστυνόμευσης. Τα εργαλεία αυτά πράγματι επιτρέπονται στην τελική εκδοχή του νόμου, όπως επιτρέπονται και τα εργαλεία αναγνώρισης συναισθημάτων από τις Αρχές – ακόμα και μέσα σε σχολεία, πανεπιστήμια ή εργασιακούς χώρους, αρκεί να θεωρείται ότι συντρέχουν λόγοι ασφαλείας.

«Απαγορεύεται», γράφει το ΑΙ Αct, «η χρήση συστημάτων τεχνητής νοημοσύνης για να συναχθούν συμπεράσματα για τα συναισθήματα ενός ατόμου στον χώρο εργασίας ή σε εκπαιδευτικά ιδρύματα, εκτός αν συντρέχουν ιατρικοί λόγοι ή λόγοι ασφαλείας».

Επίσης, επιτρέπεται στις κρατικές υπηρεσίες να συλλέγουν και να επεξεργάζονται οποιοδήποτε στοιχείο μπορεί να συναχθεί από την εμφάνιση και την παρουσία του καθενός στον δημόσιο χώρο. «Είναι πολύ σημαντικό να διατηρήσουμε τη δυνατότητα να αναζητούμε ένα άτομο που έχει εκφράσει μια θρησκευτική πεποίθηση ή μια πολιτική άποψη, όπως είναι το να φοράει μια κονκάρδα ή ένα αξεσουάρ», είπε ο αντιπρόσωπος της Γαλλίας στο Συμβούλιο της 24ης Νοεμβρίου 2023. Ολα αυτά «όταν πρόκειται για άτομο που εμπλέκεται σε βίαιο εξτρεμισμό ή θεωρείται ότι υπάρχει κίνδυνος να εμπλακεί σε τρομοκρατία». Ετσι, αν θεωρείται απαραίτητο για «την επιβολή του νόμου» το ΑΙ Αct επιτρέπει να χρησιμοποιείται η Τεχνητή Νοημοσύνη «για να προσδιοριστούν η φυλή, οι πολιτικές απόψεις, η συμμετοχή σε συνδικαλιστικούς φορείς, οι θρησκευτικές ή φιλοσοφικές πεποιθήσεις, η σεξουαλική ζωή ή ο σεξουαλικός προσανατολισμός».

«Οι κυβερνήσεις μας αναζητούν φορτικά όλο και περισσότερους πόρους, νόμους και τεχνολογικές δυνατότητες για την παρακολούθηση, τον έλεγχο και την τιμωρία καθημερινών ανθρώπων», υποστήριξε η Σάρα Τσάντερ της οργάνωσης για την προστασία των ατομικών ελευθεριών Equinox.

Και στις ιδιωτικές εταιρείες

Στην πράξη τα δεδομένα των πολιτών δεν μένουν καν στις κρατικές υπηρεσίες, συγκεντρώνονται νομίμως από τις ιδιωτικές εταιρείες ή τις τρίτες χώρες που παρέχουν τεχνολογία Τεχνητής Νοημοσύνης στις αστυνομικές αρχές. O νόμος δίνει ακόμα μία καταπληκτική δυνατότητα στις ιδιωτικές εταιρείες που αναπτύσσουν εφαρμογές Τεχνητής Νοημοσύνης: μπορούν μόνες τους να αποφασίσουν αν οι εφαρμογές χαρακτηρίζονται υψηλού ρίσκου και άρα αν θέλουν ή όχι να υποβληθούν σε απαγορεύσεις ή αυξημένους ελέγχους. Εσωτερικό έγγραφο της νομικής υπηρεσίας του Ευρωκοινοβουλίου, στο οποίο απέκτησε πρόσβαση η έρευνά μας, τονίζει ότι αυτό «αφήνει πολλά περιθώρια υποκειμενικών κρίσεων στις εταιρείες, σε αντίθεση με τους στόχους του AI Act, που είναι να ελαχιστοποιήσει τους κινδύνους από τη χρήση AI».

Αν όμως οι στόχοι δεν ήταν αυτοί; «Στην πραγματικότητα, η νομοθεσία είναι ένα εργαλείο υπέρ της βιομηχανίας, που είχε στόχο να ενισχύσει τις εταιρείες Τεχνητής Νοημοσύνης στην Ευρώπη», θεωρεί η Τσάντερ.

● Η έρευνα της διασυνοριακής ομάδας δημοσιογράφων Investigate Europe δημοσιεύεται από τα μέσα ενημέρωσης Diclose (Γαλλία), EU Observer (Bελγιο), Ιl Fatto Quotidiano (Ιταλία), InfoLibre (Ισπανία), Netzpolitik (Γερμανία), Publico (Πορτογαλία) και «Εφ.Συν.» / Reporters United (Ελλάδα). 

Πηγή: ΕΦΗΜΕΡΙΔΑ ΤΩΝ ΣΥΝΤΑΚΤΩΝ

Τεχνητή νοημοσύνη και επιτήρηση – «Καλώς ήρθατε στον οργουελικό εφιάλτη»

Τεχνητή νοημοσύνη και επιτήρηση – «Καλώς ήρθατε στον οργουελικό εφιάλτη»

Τρίτη, 31/12/2024 - 11:43

ΜΑΡΓΑΡΙΤΑ ΒΕΡΓΟΛΙΑ

Θέλοντας και μη, η εποχή της σύγχρονης επιτήρησης -με κυρίαρχη πια την τεχνητή νοημοσύνη- φαντάζει κατά πολλούς με ένα αλγοριθμικό Πανοπτικό.

Ήτοι μια τεχνολογικά προηγμένη εκδοχή του κτιρίου-φυλακή που σχεδίασε το 1785 ο Άγγλος φιλόσοφος και κοινωνιολόγος Τζέρεμι Μπένθαμ, έχοντας ως κεντρική ιδέα την ανά πάσα στιγμή επίβλεψη όλων των κρατουμένων.

Σε ένα οργουελικό σενάριο, ως «φυλακή» θα μπορούσε να νοηθεί η συνεχής επόπτευση και ως δυνάμει «κρατούμενοι» όλοι οι πολίτες.

Διαρκώς εξελισσόμενο, το φαινόμενο δεν είναι καν νέο.

Σε μια υπόθεση που χρονολογείται από την άνοιξη του 2016 στην Καλιφόρνια, για παράδειγμα, ένας τυπικός αστυνομικός έλεγχος σε έναν οδηγό μετατράπηκε σε ποινική έρευνα, με μπερδεμένα ίχνη DNA και αντικρουόμενες αναλύσεις δεδομένων βάσει αλγορίθμων.

Η εν λόγω περίπτωση αποτέλεσε αφορμή για τη δημοσίευση το 2023 σχετικής μελέτης από τον Γουίλιαμ Σ. Τόμσον, ομότιμο καθηγητή Εγκληματολογίας και Νομικής στο Πανεπιστήμιο της Καλιφόρνια στο Ιρβάιν.

Στην ουσία της, απηχούσε ένα πολύ ευρύτερο ζήτημα.

Την πικρή, δημόσια διαμάχη για τις γενετικές πληροφορίες, την τεχνητή νοημοσύνη και τις κοινωνικές εφαρμογές των υπολογιστικών εργαλείων που αξιοποιούν μεγάλες ποσότητες δεδομένων.

Προς επίρρωση -επισημαίνει σε σχετικό ρεπορτάζ ο ιστότοπος επιστημονικών θεμάτων Undark– επιστήμονες κατέδειξαν προσφάτως ότι είναι δυνατό να αποσπάσουν δείγματα ανθρώπινου DNA από μια μονάδα κλιματισμού.

Ακόμα και αν ένας εγκληματίας εισέλθει για μικρό χρονικό διάστημα σε ένα δωμάτιο φορώντας γάντια -αναφέρουν- έχει τυλίξει το κινητό του με αλουμινόχαρτο για να αποφύγει τον γεωεντοπισμό και καθαρίσει ακόμη και το παραμικρό ίχνος αίματος από το χώρο, οι μονάδες κλιματισμού συλλέγουν παθητικά ίχνη DNA, τα οποία θα μπορούσαν στη συνέχεια να συγκεντρωθούν, να απομονωθούν και να χρησιμοποιηθούν για την ταυτοποίηση του δράστη.

Θεωρητικά το ίδιο ισχύει για οποιοδήποτε άτομο, υπό οποιεσδήποτε συνθήκες.

Η σύγχρονη επιτήρηση μας αφορά όλους.

Και δη όταν επεκτείνεται σταδιακά παντού, από χώρες με αυταρχικά καθεστώτα, μέχρι δυτικού τύπου δημοκρατίες.

Κάμερα ασφαλείας σε δρόμο στο Πεκίνο (REUTERS/Carlos Garcia Rawlins/File Photo)

Σύγχρονο κράτος-επόπτης

Τα παθητικά μέσα ακρόασης και παρατήρησης είναι πια πανταχού παρόντα.

Στις ΗΠΑ, φερ’ ειπείν, τα αστυνομικά τμήματα σε πόλεις με πληθυσμό άνω του 1 εκατομμυρίου κατοίκων αναπτύσσουν κάμερες αυτόματης αναγνώρισης πινακίδων κυκλοφορίας.

«Τα χαρακτηριστικά του οχήματός σας», γράφει το Undark, «είναι πιθανό να καταχωρούνται σε μια εταιρεία, που ισχυρίζεται ότι συμμετείχε στην εξιχνίαση του 10% όλων των εγκλημάτων στις ΗΠΑ».

Ακόμη και εάν η καταγραφή δεν είναι πλήρης ή καθαρή, ένας αλγόριθμος που ονομάζεται DeepPlate αποκρυπτογραφεί τις θολές εικόνες, παρέχοντας έτσι στοιχεία για τη διερεύνηση π.χ. ενός εγκλήματος.

Έτσι, ακόμη και φαινομενικά αθώες παραβάσεις μπορούν δυνητικά να εγκλωβίσουν τους πολίτες στο «δίχτυ» της σύγχρονης επιτήρησης.

«Ασήμαντα πλημμελήματα, όπως το να βγάζετε βόλτα τον σκύλο σας χωρίς λουρί, μπορεί να αντιμετωπίζονται συχνά με αντάλλαγμα τη λήψη δείγματος DNA για να μην απαγγελθούν κατηγορίες», υπογραμμίζεται χαρακτηριστικά στο ρεπορτάζ, παραπέμποντας σε σχετικά περιστατικά που έχουν καταγγελθεί στο πρόσφατο παρελθόν σε συγκεκριμένες περιοχές των ΗΠΑ.

Αυτό πρακτικά σημαίνει ότι το γονιδίωμα ενός πολίτη μπορεί να καταχωρηθεί σε μια εθνική βάση δεδομένων και, κάποια στιγμή δυνητικά, να χρησιμοποιηθεί για τη σύνδεση του ίδιου ή συγγενικών προσώπων του -ακόμη και όσα δεν έχουν ακόμη γεννηθεί – με μελλοντικά εγκλήματα.

Για όσους καταλήγουν πίσω από τα κάγκελα, εν τω μεταξύ, διάφορα συστήματα όχι μόνο μπορούν να παρακολουθούν τις κλήσεις και τις επαφές τους, αλλά να χρησιμοποιούν λογισμικό για να «διαβάζουν τυχόν προβληματική γλώσσα».

Κανένα από τα παραπάνω παραδείγματα δεν είναι υποθετικό.

Αυτές οι τεχνολογίες υπάρχουν, λειτουργούν και η χρήση τους επεκτείνεται σε όλο τον κόσμο, επισημαίνει το Undark.

Μοιραία, υπάρχουν εύλογες και εντεινόμενες ανησυχίες σχετικά με την ιδιωτικότητα και τη συγκατάθεση, ακόμη και για τη διείσδυση της τεχνητής νοημοσύνης στην κυβερνητική επιτήρηση.

Υπάρχουν ωστόσο εξίσου βασικά ερωτήματα, που -όπως λένε πολλοί ειδικοί- έχουν αγνοηθεί σε μεγάλο βαθμό.

Drone της γαλλικής αστυνομίας σε πτήση επιτήρησης πάνω από το Παρίσι (REUTERS/Gonzalo Fuentes)

Κανονικοποιώντας την επιτήρηση

Ένας αυξανόμενος αριθμός επικριτών στρέφεται κατά των σύγχρονων συστημάτων επιτήρησης, αμφισβητώντας την χρησιμότητα και αποδοτικότητά τους.

Ορισμένες από αυτές τις τεχνολογίες, λένε, δεν έχουν αποδεδειγμένο ιστορικό αξιοπιστίας και διαφάνειας, τουλάχιστον στην τρέχουσα εκδοχή τους, ενώ οι «απαντήσεις» που παρέχουν παραμένουν επικίνδυνα «θολές».

Εξ ου και στη «γλώσσα» των μηχανικών λογισμικού τα συστήματα αυτά  ονομάζονταν «εύθραυστα».

Τίθενται εύλογα και ουσιώδη ερωτήματα ως προς τους αλγορίθμους που κάνουν προβλέψεις και παράγουν στατιστικές για συμπεριφορικά μοντέλα.

Αυτά τα συστήματα αντιπροσωπεύουν μια ολόκληρη κατηγορία εργαλείων επιτήρησης, αντανακλώντας ευρύτερα πρότυπα για τον τρόπο με τον οποίο αναπτύσσονται άκριτα, χωρίς σαφείς προδιαγραφές και ρυθμιστικό πλαίσιο.

«Ζούμε όλο και περισσότερο σε έναν κόσμο όπου συλλέγονται όλο και περισσότερα δεδομένα για εμάς, συχνά χωρίς να γίνει εν γνώσει μας ή με την πλήρη συγκατάθεσή μας», εξηγεί η Ντάφνι Μαρτσένκο, ερευνήτρια στο Κέντρο Βιοϊατρικής Ηθικής του Πανεπιστημίου Στάνφορντ.

«Είτε σας νοιάζει, είτε όχι -και μπορεί να μη σας νοιάζει αν θεωρείτε τον εαυτό σας νομοταγή πολίτη- συνήθως δεν παίρνουμε στα σοβαρά αυτές τις συνήθεις παραβιάσεις της αυτονομίας και την απώλεια της ιδιωτικής ζωής», υπογραμμίζει το Undark.

Όμως «η κανονικοποίηση της βιντεοεπιτήρησης και των τεχνολογιών αναγνώρισης προσώπου, συμπεριλαμβανομένων των πανταχού παρόντων καταναλωτικών προϊόντων -όπως κάμερες εισόδου ή οι λειτουργίες αυτόματης σήμανσης που ανιχνεύουν το πρόσωπο του παιδιού σας στην κατασκήνωση- έχει οδηγήσει σε εφησυχασμό».

Το αποτέλεσμα, παρατηρούν ακαδημαϊκοί σε πρόσφατη μελέτη, είναι σαν «να προγραμματιζόμαστε να μην ανησυχούμε για μορφές επιτήρησης, που κάποτε φάνταζαν σε πολλούς εξ ημών ως ανατριχιαστικές, διφορούμενες απειλές».

Τεχνητή νοημοσύνη και τεχνολογικός μιθριδατισμός

Πάρτε για παράδειγμα το DNA, που αποτελεί πλέον «χρυσό κανόνα» για τις εγκληματολογικές έρευνες.

Οι εφαρμογές του στην επιβολή του νόμου μπορεί να σας τρόμαζαν μόλις πριν από μερικές δεκαετίες.

Βρέθηκαν στο επίκεντρο με τη δίκη του O. Τζέι Σίμπσον στα μέσα της δεκαετίας του ’90.

Τώρα, αν και οι σύγχρονες χρήσεις εγκληματολογικών τεχνολογιών DNA είναι εκθετικά πιο ισχυρές, υπόκεινται σε λιγότερο έλεγχο.

Σημείο αναφοράς αποτελεί η γενετική γενεαλογία, η οποία συγκρίνει συλλεχθέντα προφίλ DNA από τόπους εγκλήματος με δημόσια διαθέσιμες βάσεις δεδομένων, συμπεριλαμβανομένων εκείνων που παρέχονται από εταιρείες βάσει απευθείας γενικών ελέγχων σε καταναλωτές.

«Από τη στιγμή που το DNA υπάρχει παντού στο σύστημα, πολλές από τις αρχικές ανησυχίες έχουν πια εξαφανιστεί», τονίζει η Σάρα Τσου, ακαδημαϊκός και συντονίστρια σχετικού πρόσφατου εργαστηρίου της Εθνικής Ακαδημίας Επιστημών των ΗΠΑ.

Αλλά αυτό, παρατηρεί, συμβαίνει «σε μια εποχή που η τεχνολογία έχει προχωρήσει», ενώ «δεν υπάρχουν περιορισμοί ότι τα δεδομένα που συλλέγονται», ακόμη και από εταιρείες, «δεν μπορούν να χρησιμοποιηθούν αλλού».

«Ζούμε σε μια καπιταλιστική κοινωνία, όπου η βιομηχανία καθοδηγείται από το κέρδος και η αποκάλυψη του “μαύρου κουτιού” όσον αφορά το λογισμικό που χρησιμοποιούν δεν είναι απαραίτητα προς το συμφέρον τους», τονίζει η Ντάφνι Μαρτσένκο.

«Στην περίπτωση χρήσης αυτών των γενετικών τεχνολογιών από τις υπηρεσίες επιβολής του νόμου οι επιπτώσεις μπορεί να είναι σοβαρές για τους ανθρώπους, σε ολόκληρο τον κόσμο».

Πολλώ μάλλον όταν -όπως παρατηρούν ακαδημαϊκοί σε μελέτη για την προστασία της ιδιωτικότητας– «η λήψη αποφάσεων σχετικά με τους ανθρώπους περιλαμβάνει ειδικές συναισθηματικές και ηθικές εκτιμήσεις, που οι αλγόριθμοι δεν είναι ακόμη έτοιμοι να κάνουν και ίσως να μην είναι ποτέ σε θέση να το πράξουν».

Αντίθετα, κατά την Σάρα Τσου και άλλους εμπειρογνώμονες, είναι ορατός ο κίνδυνος οι αλγόριθμοι και οι προβλέψεις τους να ενισχύουν τα στερεότυπα, παγιώνοντας ή και ενισχύοντας ανισότητες και προκαταλήψεις.

Πηγή: in.gr

Habsora, το AI Ευαγγέλιο με το οποίο το Ισραήλ αφανίζει μαζικότερα τη Γάζα

Habsora, το AI Ευαγγέλιο με το οποίο το Ισραήλ αφανίζει μαζικότερα τη Γάζα

Δευτέρα, 30/12/2024 - 19:13

Το Ισραήλ συνεχίζει να σφυροκοπά τους ανθρώπους της Παλαιστίνης από τις 7 Οκτωβρίου του προηγούμενου έτους, με τις αδιάκοπες επιθέσεις να διαδέχονται η μια την άλλη ως απάντηση στα πλήγματα της Χαμάς.

Καθόλη τη διάρκεια των αιματηρών βομβαρδισμών, ο στρατός του Ισραήλ χρησιμοποιεί μέσα τελευταίας τεχνολογίας, ανάμεσα στα οποία, όπως φέρνει στο φως η Washington Post, βρίσκεται και η τεχνητή νοημοσύνη. Αξιοποιώντας το συγκεκριμένο εργαλείο, μάλιστα οι ειδικές δυνάμεις του Ισραήλ έχουν πιθανότητες να κατορθώσουν την αύξηση των απωλειών των αμάχων στη Γάζα σε σχέση με επιθέσεις προηγούμενων ετών.

Το αμερικανικό μέσο βασίστηκε σε συνεντεύξεις που διεξήγαγε σε περισσότερα από 10 άτομα, τα οποία είναι απολύτως εξοικειωμένα με την κατάσταση αλλά και σε έγγραφα. Το εργαλείο που σκοτώνει μαζικά ονομάζεται Habsora και έχει την ικανότητα να δημιουργεί πάρα πολύ γρήγορα υποψήφιους στόχους.

Σύμφωνα, λοιπόν με τις πηγές της Washington Post, υπογραμμίστηκε η αντιστοιχία αμάχων θυμάτων σε σχέση με τους μαχητές της Χαμάς που “εξολοθρεύονται” είναι σήμερα 15 φορές μεγαλύτερος σε σχέση με αυτόν των επιθέσεων του 2014. Oι IDF διέψευσαν το ρεπορτάζ αλλά αυτό μάλλον έχει μικρή σημασία καθώς οι πηγές προέρχονται από το εσωτερικό τους.

Το «Habsora» ακολουθεί μια θύελλα ανησυχιών, που σχετίζεται με τα ηθικά ζητήματα που προκύπτουν από την εμπλοκή της τεχνητής νοημοσύνης σε στρατιωτικές επιχειρήσεις, ιδιαίτερα λόγω του κινδύνου για απώλειες αμάχων.

Όσοι το κατακρίνουν ισχυρίζονται εύλογα ότι η εξάρτηση από τέτοια συστήματα μπορεί να οδηγήσει σε ανεξέλεγκτες συνέπειες, ενώ ο ισραηλινός στρατός υποστηρίζει ότι η τεχνολογία αυτή επιτρέπει πιο ακριβείς επιθέσεις, μειώνοντας τις παράπλευρες απώλειες.

Στη Γάζα μέχρι σήμερα έχουν χάσει τη ζωή τους πάνω από 45.000 άνθρωποι, οι περισσότεροι εκ των οποίων είναι άμαχοι και παιδιά.

Τεχνητή νοημοσύνη μετατρέπει ηχογραφήσεις σε ακριβείς εικόνες δρόμων

Τεχνητή νοημοσύνη μετατρέπει ηχογραφήσεις σε ακριβείς εικόνες δρόμων

Πέμπτη, 26/12/2024 - 12:16

Ερευνητές μπόρεσαν να μετατρέψουν ήχους από ηχογραφήσεις σε εικόνες δρόμου με αξιοσημείωτη ακρίβεια. Στη μελέτη τους, που δημοσιεύθηκε στο περιοδικό "Computers, Environment and Urban Systems"περιγράφουν πώς εκπαίδευσαν το μοντέλο τεχνητής νοημοσύνης να μετατρέπει ήχο σε εικόνα χρησιμοποιώντας ηχητικά δεδομένα που συλλέχθηκαν από διάφορα αστικά και αγροτικά τοπία. Το μοντέλο αυτό χρησιμοποιείται τώρα για τη δημιουργία νέων εικόνων.

Ένας ήχος θα μπορούσε να δημιουργήσει ένα τοπίο

Η μελέτη τους δείχνει ότι τα ακουστικά περιβάλλοντα περιέχουν αρκετές οπτικές ενδείξεις ώστε να αναπαράγονται αρκετά πιστά στην πραγματικότητα. Αυτό σημαίνει ότι μπορούμε να μετατρέψουμε τα ακουστικά περιβάλλοντα σε ζωντανές οπτικές αναπαραστάσεις.

Για να επιτύχουν τον στόχο τους, συνέλεξαν βίντεο και ήχους από βίντεο στο YouTube από πόλεις και επαρχιακούς δρόμους στη Βόρεια Αμερική, την Ασία και την Ευρώπη.

Το μοντέλο εκπαιδεύτηκε με ζεύγη ηχητικών αποσπασμάτων διάρκειας δέκα δευτερολέπτων και εικόνων τοποθεσίας.

Στη συνέχεια, το μοντέλο μπόρεσε να δημιουργήσει εικόνες υψηλής ανάλυσης από μια απλή ηχητική ηχογράφηση.

Στη συνέχεια συγκρίθηκαν με τις πραγματικές φωτογραφίες που αντιστοιχούσαν στους ήχους, σύμφωνα με τις αναλογίες πρασίνου, κτιρίων και ουρανού που βρέθηκαν.

Τα πρώτα αποτελέσματα έδειξαν μια αρκετά ισχυρή συσχέτιση των αναλογιών του ουρανού και του πρασίνου μεταξύ των πραγματικών εικόνων και εκείνων που παράγονται από την τεχνητή νοημοσύνη. Η κατάσταση είναι λιγότερο ακριβής όταν πρόκειται για κτίρια.

Η τεχνητή νοημοσύνη μπορεί ακόμη και να αναγνωρίσει αν οι ήχοι καταγράφηκαν κατά τη διάρκεια της ημέρας ή της νύχτας, χρησιμοποιώντας ενδείξεις όπως ο θόρυβος της κυκλοφορίας στην πόλη ή ο θόρυβος των εντόμων στην ύπαιθρο.

Σκοπός της παρούσας μελέτης είναι να εξετάσει τις δυνατότητες της τεχνητής νοημοσύνης να καταγράψει τα χαρακτηριστικά που προσδίδουν στις πόλεις την ιδιαίτερη ταυτότητά τους και, γενικότερα, να μελετήσει τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν με το περιβάλλον τους.

Πηγή: rtbf.be

Τεχνητή νοημοσύνη μετατρέπει ηχογραφήσεις σε ακριβείς εικόνες δρόμων

Τεχνητή νοημοσύνη μετατρέπει ηχογραφήσεις σε ακριβείς εικόνες δρόμων

Πέμπτη, 26/12/2024 - 12:16

Ερευνητές μπόρεσαν να μετατρέψουν ήχους από ηχογραφήσεις σε εικόνες δρόμου με αξιοσημείωτη ακρίβεια. Στη μελέτη τους, που δημοσιεύθηκε στο περιοδικό "Computers, Environment and Urban Systems"περιγράφουν πώς εκπαίδευσαν το μοντέλο τεχνητής νοημοσύνης να μετατρέπει ήχο σε εικόνα χρησιμοποιώντας ηχητικά δεδομένα που συλλέχθηκαν από διάφορα αστικά και αγροτικά τοπία. Το μοντέλο αυτό χρησιμοποιείται τώρα για τη δημιουργία νέων εικόνων.

Ένας ήχος θα μπορούσε να δημιουργήσει ένα τοπίο

Η μελέτη τους δείχνει ότι τα ακουστικά περιβάλλοντα περιέχουν αρκετές οπτικές ενδείξεις ώστε να αναπαράγονται αρκετά πιστά στην πραγματικότητα. Αυτό σημαίνει ότι μπορούμε να μετατρέψουμε τα ακουστικά περιβάλλοντα σε ζωντανές οπτικές αναπαραστάσεις.

Για να επιτύχουν τον στόχο τους, συνέλεξαν βίντεο και ήχους από βίντεο στο YouTube από πόλεις και επαρχιακούς δρόμους στη Βόρεια Αμερική, την Ασία και την Ευρώπη.

Το μοντέλο εκπαιδεύτηκε με ζεύγη ηχητικών αποσπασμάτων διάρκειας δέκα δευτερολέπτων και εικόνων τοποθεσίας.

Στη συνέχεια, το μοντέλο μπόρεσε να δημιουργήσει εικόνες υψηλής ανάλυσης από μια απλή ηχητική ηχογράφηση.

Στη συνέχεια συγκρίθηκαν με τις πραγματικές φωτογραφίες που αντιστοιχούσαν στους ήχους, σύμφωνα με τις αναλογίες πρασίνου, κτιρίων και ουρανού που βρέθηκαν.

Τα πρώτα αποτελέσματα έδειξαν μια αρκετά ισχυρή συσχέτιση των αναλογιών του ουρανού και του πρασίνου μεταξύ των πραγματικών εικόνων και εκείνων που παράγονται από την τεχνητή νοημοσύνη. Η κατάσταση είναι λιγότερο ακριβής όταν πρόκειται για κτίρια.

Η τεχνητή νοημοσύνη μπορεί ακόμη και να αναγνωρίσει αν οι ήχοι καταγράφηκαν κατά τη διάρκεια της ημέρας ή της νύχτας, χρησιμοποιώντας ενδείξεις όπως ο θόρυβος της κυκλοφορίας στην πόλη ή ο θόρυβος των εντόμων στην ύπαιθρο.

Σκοπός της παρούσας μελέτης είναι να εξετάσει τις δυνατότητες της τεχνητής νοημοσύνης να καταγράψει τα χαρακτηριστικά που προσδίδουν στις πόλεις την ιδιαίτερη ταυτότητά τους και, γενικότερα, να μελετήσει τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν με το περιβάλλον τους.

Πηγή: rtbf.be

Το GenCast προβλέπει με τεχνητή νοημοσύνη τον καιρό και τους κινδύνους ακραίων συνθηκών

Το GenCast προβλέπει με τεχνητή νοημοσύνη τον καιρό και τους κινδύνους ακραίων συνθηκών

Σάββατο, 07/12/2024 - 16:53

Το «υπερόπλο» που λέγεται τεχνητή νοημοσύνη ρίχνει στη μάχη των μετεωρολογικών προβλέψεων η Google με το GenCast, ένα καινοτόμο μοντέλο που μπορεί να προβλέψει τον καιρό με ακρίβεια έως και 15 ημέρες νωρίτερα.

Ο καιρός επηρεάζει όλους μας, διαμορφώνει τις αποφάσεις μας, την ασφάλειά μας και τον τρόπο ζωής μας. Καθώς η κλιματική αλλαγή οδηγεί σε περισσότερα ακραία καιρικά φαινόμενα, οι ακριβείς και αξιόπιστες προβλέψεις είναι πιο απαραίτητες από ποτέ. Ωστόσο, ο καιρός δεν μπορεί να προβλεφθεί τέλεια και οι προβλέψεις είναι ιδιαίτερα αβέβαιες.

Το GenCast είναι ένα καινοτόμο μοντέλο προβλέψεις καιρού που αναπτύχθηκε στο ερευνητικό εργαστήριο DeepMind. Έχει κατασκευαστεί για να παρέχει καλύτερες προβλέψεις σε ημερήσια βάση όσο και των ακραίων φαινομένων έως και 15 ημέρες νωρίτερα.

 

Πρόγνωση σε μόλις 8 λεπτά

Το μοντέλο της Google σηματοδοτεί μια κρίσιμη πρόοδο στην πρόβλεψη καιρού με βάση την τεχνητή νοημοσύνη.  Σε αντίθεση με τις παραδοσιακές μεθόδους που απαιτούν ώρες υπολογισμών σε υπερυπολογιστές, το GenCast μπορεί να δημιουργήσει μια πρόγνωση σε μόλις 8 λεπτά. Στην πράξη όχι μόνο παρέχει ταχύτερα αποτελέσματα, αλλά διαπρέπει και στην πρόβλεψη ακραίων καιρικών φαινομένων, όπως τροπικοί κυκλώνες, με μεγαλύτερη ακρίβεια.

Παράγει ένα σύνολο 50 ή περισσότερων προβλέψεων, επιτρέποντας μια πιο λεπτομερή κατανόηση των πιθανών σεναρίων καιρού, κάτι ιδιαίτερα κρίσιμο για τομείς όπως η γεωργία, οι ανανεώσιμες πηγές ενέργειας και οι υπηρεσίες έκτακτης ανάγκης.

 

Η ανάπτυξη του GenCast αποτελεί σημαντική πρόοδο στον τομέα των μετεωρολογικών προβλέψεων, αξιοποιώντας τέσσερις δεκαετίες ιστορικών δεδομένων καιρού από το Ευρωπαϊκό Κέντρο Μεσοπρόθεσμων Μετεωρολογικών Προγνώσεων (ECMWF). Το μοντέλο χρησιμοποιεί τεχνικές διάχυσης, παρόμοιες με αυτές της γενετικής τεχνητής νοημοσύνης για εικόνες και μουσική, προσαρμοσμένες όμως στη σφαιρική γεωμετρία της Γης.

 

Ακριβέστερο από το ENS

Εξετάζοντας τις προβλέψεις διαφορετικών μεταβλητών σε διαφορετικούς χρόνους προβολής -συνολικά 1320 συνδυασμούς- το GenCast ήταν ακριβέστερο από το ENS (σύστημα πρόβλεψης που έχει σχεδιαστεί για να υποδεικνύει το εύρος των πιθανών καιρικών συνθηκών σε διάστημα 15 ημερών) στο 97,2% αυτών των στόχων, και στο 99,8% σε χρόνους προβολής μεγαλύτερους από 36 ώρες.

Σε μια προσπάθεια να προωθήσει περαιτέρω την εξέλιξη στις προβλέψεις του καιρού, η Google αποφάσισε να διαθέσει τον κώδικα του μοντέλου GenCast ελεύθερα στην ερευνητική κοινότητα. Αυτή η κίνηση αναμένεται να επιταχύνει την καινοτομία στον κλάδο, επιτρέποντας σε επιστήμονες παγκοσμίως να συμβάλουν και να εξελίξουν την τεχνολογία.

Καναδάς: Οι μεγαλύτεροι ειδησεογραφικοί οργανισμοί μηνύουν την OpenAI

Καναδάς: Οι μεγαλύτεροι ειδησεογραφικοί οργανισμοί μηνύουν την OpenAI

Κυριακή, 01/12/2024 - 14:12

Μήνυση σε βάρος της τεχνολογικής εταιρείας OpenAI κατέθεσαν οι μεγαλύτεροι ειδησεογραφικοί οργανισμοί του Καναδά, διεκδικώντας δισεκατομμύρια δολάρια, ισχυριζόμενοι ότι η εταιρεία «πλούτισε άδικα» χρησιμοποιώντας άρθρα ειδήσεων για να εκπαιδεύσει το δημοφιλές λογισμικό ChatGPT.

Όπως αναφέρει ο Guardian, η αγωγή, η οποία κατατέθηκε την Παρασκευή στο Ανώτατο Δικαστήριο του Οντάριο, ζητά αποζημίωση σε ποινικό επίπεδο, μερίδιο από τα κέρδη που αποκόμισε η OpenAI από τη χρήση των άρθρων των ειδησεογραφικών οργανισμών, καθώς και ασφαλιστικά μέτρα που θα απαγορεύουν στην εταιρεία με έδρα το Σαν Φρανσίσκο να χρησιμοποιεί στο μέλλον οποιοδήποτε από τα άρθρα των ειδήσεων.

Στους ενάγοντες περιλαμβάνονται η Globe and Mail, ο καναδικός Τύπος, το CBC, η Toronto Star, η Metroland Media και η Postmedia. Ζητούν αποζημίωση έως και 20.000 δολάρια Καναδά για κάθε άρθρο που χρησιμοποιεί η OpenAI, γεγονός που υποδηλώνει ότι μια νίκη στο δικαστήριο θα μπορούσε να αξίζει δισεκατομμύρια.

«Οι εναγόμενοι έχουν εμπλακεί σε συνεχή, σκόπιμη και μη εξουσιοδοτημένη υπεξαίρεση των πολύτιμων έργων των ενάγοντων στα μέσα ενημέρωσης ειδήσεων. Οι ενάγοντες ασκούν την παρούσα αγωγή για να αποτρέψουν και να ζητήσουν αποζημίωση για αυτές τις παράνομες δραστηριότητες», αναφέρεται στην αγωγή των ειδησεογραφικών οργανισμών.

«Για να αποκτήσει τις σημαντικές ποσότητες δεδομένων κειμένου που απαιτούνται για την ανάπτυξη των μοντέλων GPT τους, η OpenAI σκόπιμα αποκτά πρόσβαση και αντιγράφει περιεχόμενο από τους ιστότοπους των εταιρειών ειδησεογραφικών μέσων ενημέρωσης. Στη συνέχεια χρησιμοποιεί αυτό το ιδιοκτησιακό περιεχόμενο για την ανάπτυξη των μοντέλων GPT της, χωρίς συγκατάθεση ή άδεια» τονίζεται.

Κανένας από τους ισχυρισμούς δεν έχει ελεγχθεί στο δικαστήριο.

Η αγωγή είναι η τελευταία σε μια σειρά από μάχες των καναδικών μέσων ενημέρωσης εναντίον αμερικανικών εταιρειών τεχνολογίας, συμπεριλαμβανομένης μιας πικρής διαμάχης με τη μητρική εταιρεία του Facebook Meta. Πολλά ειδησεογραφικά πρακτορεία στις ΗΠΑ, συμπεριλαμβανομένων των New York Times, έχουν επίσης μηνύσει την OpenAI.

Μελέτη στην Ελβετία αποκαλύπτει ότι το ChatGPT αλλοιώνει τις πληροφορίες για ένοπλες συγκρούσεις ανάλογα με τη γλώσσα

Μελέτη στην Ελβετία αποκαλύπτει ότι το ChatGPT αλλοιώνει τις πληροφορίες για ένοπλες συγκρούσεις ανάλογα με τη γλώσσα

Τετάρτη, 27/11/2024 - 21:21

Νέα έρευνα δείχνει ότι όταν ερωτάται στα αραβικά για τον αριθμό των θυμάτων μεταξύ των αμάχων στις συγκρούσεις στη Μέση Ανατολή, το ChatGPT δίνει σημαντικά υψηλότερα νούμερα από ό,τι όταν η ερώτηση είναι γραμμένη στα εβραϊκά. Σύμφωνα με τους ερευνητές, τέτοιες συστηματικές αποκλίσεις θα μπορούσαν να ενθαρρύνουν τη μεροληψία στις ένοπλες συγκρούσεις.

Καθημερινά, εκατομμύρια άνθρωποι χρησιμοποιούν και αναζητούν πληροφορίες στο ChatGPT και σε άλλα μεγάλα γλωσσικά μοντέλα (LLM). Πώς όμως η γλώσσα στην οποία γίνονται οι ερωτήσεις επηρεάζει τις απαντήσεις σε αυτά τα μοντέλα - έχει σημασία αν η ίδια ερώτηση γίνεται στα αγγλικά, στα αραβικά ή στα εβραϊκά;

Ερευνητές από τα πανεπιστήμια της Ζυρίχης και της Κωνσταντίας διερεύνησαν το ερώτημα αυτό εστιάζοντας στη Μέση Ανατολή και στις συγκρούσεις μεταξύ Τούρκων και Κούρδων. Χρησιμοποιώντας μια αυτοματοποιημένη διαδικασία, υπέβαλαν επανειλημμένα στο ChatGPT τις ίδιες ερωτήσεις σχετικά με ένοπλες συγκρούσεις όπως αυτή στη Μέση Ανατολή σε διάφορες γλώσσες. Διαπίστωσαν ότι, κατά μέσο όρο, το ChatGPT δίνει κατά ένα τρίτο υψηλότερα στοιχεία για τις απώλειες στις συγκρούσεις στη Μέση Ανατολή όταν η ερώτηση γίνεται στα αραβικά απ' ό,τι στα εβραϊκά και αναφέρει διπλάσιες απώλειες αμάχων και έξι φορές περισσότερα παιδιά που σκοτώθηκαν από τις ισραηλινές αεροπορικές επιδρομές στη Γάζα.

Για παράδειγμα, η ερευνητική ομάδα ζήτησε επανειλημμένα από το ChatGPT στα εβραϊκά και στα αραβικά τον αριθμό των ανθρώπων που σκοτώθηκαν σε 50 τυχαία επιλεγμένες αεροπορικές επιδρομές, συμπεριλαμβανομένης της ισραηλινής επίθεσης στον προσφυγικό καταυλισμό Νουσεϊράτ στη Λωρίδα της Γάζας στις 21 Αυγούστου 2014.

Η ομάδα επανέλαβε το ίδιο μοτίβο για να ρωτήσει σχετικά με τις αεροπορικές επιδρομές του τουρκικού στρατού σε κουρδικές περιοχές. Έκαναν τις ερωτήσεις τόσο στα τουρκικά όσο και στα κουρδικά, ανέφερε ττο πανεπιστήμιο της Ζυρίχης.

Γενικά, το ChatGPT παρουσιάζει μεγαλύτερο αριθμό απωλειών όταν τα ερωτήματα αναζήτησης γίνονται στη γλώσσα της πλευράς που δέχεται την επίθεση. Το ChatGPT τείνει επίσης να αναφέρει περισσότερα παιδιά και γυναίκες που σκοτώθηκαν στη γλώσσα της πλευράς που δέχεται την επίθεση και να περιγράφει τις αεροπορικές επιδρομές ως αδιάκριτες και τυχαίες.

"Τα αποτελέσματα δείχνουν επίσης ότι το ChatGPT τείνει να αρνηθεί την ύπαρξη τέτοιων αεροπορικών επιδρομών όταν η ερώτηση είναι στη γλώσσα του επιτιθέμενου", λέει ο Κριστόφ Στάινερτ, μεταδιδακτορικός ερευνητής στο Τμήμα Πολιτικών Επιστημών του Πανεπιστημίου της Ζυρίχης.

Στρέβλωση της αντίληψης

Άνθρωποι που μιλούν διαφορετικές γλώσσες λαμβάνουν διαφορετικές πληροφορίες μέσω αυτών των νέων τεχνολογιών, γεγονός που επηρεάζει καθοριστικά την αντίληψή τους για τον κόσμο. Σύμφωνα με τους ερευνητές, αυτό θα μπορούσε να οδηγήσει τους ανθρώπους στο Ισραήλ να αξιολογούν τις αεροπορικές επιδρομές στη Γάζα ως λιγότερο επιβλαβείς από ό,τι ο αραβόφωνος πληθυσμός, με βάση τις πληροφορίες που λαμβάνουν αμφότεροι από το ChatGPT.

Ενώ τα παραδοσιακά μέσα ενημέρωσης μπορούν επίσης να παραμορφώσουν τις πληροφορίες, οι συστηματικές γλωσσικές παραμορφώσεις των μεγάλων γλωσσικών μοντέλων, όπως το ChatGPT, είναι δύσκολο να γίνουν αντιληπτές από τους περισσότερους χρήστες.

"Υπάρχει ο κίνδυνος ότι η αυξανόμενη ανάπτυξη μεγάλων γλωσσικών μοντέλων στις μηχανές αναζήτησης θα ενισχύσει τις διαφορετικές αντιλήψεις, τις προκαταλήψεις και την παραπληροφόρηση κατά μήκος των γλωσσικών διαχωριστικών γραμμών", λέει ο Στάινερτ, ο οποίος πιστεύει ότι στο μέλλον θα μπορούν να υποδαυλίζουν ένοπλες συγκρούσεις, όπως αυτές στη Μέση Ανατολή.

Πηγή: swissinfo.ch

Η τεχνητή νοημοσύνη αποκαλύπτει 70.000 νέους ιούς

Η τεχνητή νοημοσύνη αποκαλύπτει 70.000 νέους ιούς

Δευτέρα, 28/10/2024 - 17:40

ΔΗΜΗΤΡΗΣ ΦΑΝΑΡΙΩΤΗΣ

Oι 70.000 ιοί RNA ταυτοποιήθηκαν με τη χρήση μιας μετα-γονιδιωματικής διαδικασίας, στην οποία οι επιστήμονες λαμβάνουν δείγματα από όλα τα γονιδιώματα που υπάρχουν στο περιβάλλον χωρίς να χρειάζεται να καλλιεργήσουν μεμονωμένους ιούς.

Ερευνητές χρησιμοποίησαν τεχνητή νοημοσύνη (AI) για να αποκαλύψουν 70.000 ιούς που ήταν προηγουμένως άγνωστοι στην επιστήμη, πολλοί από τους οποίους είναι ιδιόμορφοι και δεν θυμίζουν καθόλου γνωστά είδη σχολιάζει ο ιστότοπος Briefing Nature. Επισημαίνει ότι οι 70.000 ιοί RNA ταυτοποιήθηκαν με τη χρήση μιας μετα-γονιδιωματικής διαδικασίας, στην οποία οι επιστήμονες λαμβάνουν δείγματα από όλα τα γονιδιώματα που υπάρχουν στο περιβάλλον χωρίς να χρειάζεται να καλλιεργήσουν μεμονωμένους ιούς. Μια μέθοδος που καταδεικνύει τη δυνατότητα της τεχνητής νοημοσύνης να εξερευνήσει τη «σκοτεινή ύλη» του σύμπαντος του ιού RNA.

Οι ιοί είναι πανταχού παρόντες μικροοργανισμοί που μολύνουν ζώα, φυτά, ακόμη και βακτήρια, ωστόσο μόνο ένα μικρό κλάσμα έχει εντοπιστεί και περιγραφεί. Υπάρχει ουσιαστικά ένας «απύθμενος λάκκος» ιών προς ανακάλυψη, λέει ο Αρτέμ Μπαμπαγιάν ειδικός ιολόγος στο Πανεπιστήμιο του Τορόντο στον Καναδά. Ορισμένοι από αυτούς τους ιούς θα μπορούσαν να προκαλέσουν ασθένειες στους ανθρώπους, πράγμα που σημαίνει ότι ο χαρακτηρισμός τους θα μπορούσε να βοηθήσει στην εξήγηση μυστηριωδών ασθενειών. Σημειώνει δε ότι πολλοί από τους ιούς αυτούς είναι «παράξενοι» και ζουν σε αλυκές, υδροθερμικές οπές και άλλα ακραία περιβάλλοντα.

Προηγούμενες μελέτες έχουν χρησιμοποιήσει μηχανική εκμάθηση για την εύρεση νέων ιών στην αλληλουχία δεδομένων. Η πιο πρόσφατη μελέτη, που δημοσιεύτηκε στο Cell, πηγαίνει αυτή τη διαδικασία ένα βήμα παραπέρα και τη χρησιμοποιεί για να εξετάσει τις δομές πρωτεΐνης.

Μάλιστα για τον λόγο αυτό το μοντέλο τεχνητής νοημοσύνης (AI) ενσωματώνει ένα εργαλείο πρόβλεψης πρωτεΐνης, που ονομάζεται ESMFold, το οποίο αναπτύχθηκε από ερευνητές στο Meta (πρώην Facebook). Ενα παρόμοιο σύστημα AI, το AlphaFold, αναπτύχθηκε από ερευνητές στο Google DeepMind στο Λονδίνο, οι οποίοι κέρδισαν το φετινό Νόμπελ Χημείας.

Το Nature σημειώνει ακόμη ότι 2022, ο Μπαμπαγιάν και οι συνεργάτες του έψαξαν 5,7 εκατομμύρια γονιδιωματικά δείγματα που αρχειοθετήθηκαν σε δημόσια διαθέσιμες βάσεις δεδομένων και εντόπισαν σχεδόν 132.000 νέους ιούς RNA2. Και η επέκταση της δεξαμενής των γνωστών ιών διευκολύνει την εύρεση περισσότερων παρόμοιων ιών, λέει ο Μπαμπαγιάν τονίζοντας ότι: «Ξαφνικά μπορείς να δεις πράγματα που απλά δεν έβλεπες πριν».

Το άρθρο υπογραμμίζει ότι μια κοινή μέθοδος είναι να αναζητηθεί ένα τμήμα του γονιδιώματος που κωδικοποιεί μια βασική πρωτεΐνη που χρησιμοποιείται στην αντιγραφή του RNA, που ονομάζεται RNA-εξαρτώμενη πολυμεράση (RdRp). Αλλά, επισημαίνει το επιστημονικό άρθρο, η αλληλουχία που κωδικοποιεί αυτήν την πρωτεΐνη σε έναν ιό είναι πολύ διαφορετική από οποιαδήποτε γνωστή και έτσι οι ερευνητές δεν θα την αναγνωρίσουν.

Για τον λόγο αυτό ο εξελικτικός βιολόγος Σι Μανγκ από το Πανεπιστήμιο Σαν Γιατ Σεν της Σενζέν Sun Yat-sen και συν-συγγραφέας της μελέτης που δημοσιεύθηκε στο Cell αναζήτησε ιούς που δεν είχαν αναγνωριστεί στο παρελθόν σε δημόσια διαθέσιμα γονιδιωματικά δείγματα.

Ειδικότερα η ομάδα του Μανγκ ανέπτυξε ένα μοντέλο, που ονομάζεται LucaProt, χρησιμοποιώντας την αρχιτεκτονική «μετασχηματιστή» που στηρίζει το ChatGPT και τροφοδότησε την αλληλουχία και τα δεδομένα πρόβλεψης πρωτεΐνης ESMFold. Στη συνέχεια εκπαίδευσαν το μοντέλο τους να αναγνωρίζει τους ιούς. Χρησιμοποιώντας αυτή τη μέθοδο, εντόπισαν περίπου 160.000 ιούς RNA, συμπεριλαμβανομένων μερικών που βρέθηκαν σε ακραία περιβάλλοντα όπως θερμές πηγές, αλμυρές λίμνες και στον αέρα. Λίγο λιγότερο από τα μισά από αυτά δεν είχαν περιγραφεί πριν.

«Είναι μια πραγματικά πολλά υποσχόμενη προσέγγιση για την επέκταση της “ιοσφαίρας”», τόνισε η Τζάκι Μαχάρ, εξελικτική ιολόγος στο Αυστραλιανό Κέντρο Ετοιμότητας για Νόσους CSIRO στο Γκέλονγκ. Τόνισε μάλιστα ότι ο χαρακτηρισμός των ιών θα βοηθήσει τους ερευνητές να κατανοήσουν την προέλευση των μικροβίων και το πώς εξελίχθηκαν σε διαφορετικούς ξενιστές.

Πηγή:  ΕΦΗΜΕΡΙΔΑ ΤΩΝ ΣΥΝΤΑΚΤΩΝ

Σελίδα 1 από 4