Ως αποτέλεσμα, η τιμή της μετοχής της Google κατρακύλησε κατά 9% σε μια μέρα.
Το πειραματικό εργαλείο AI Overviews που λάνσαρε αυτό το μήνα η Google στις ΗΠΑ δημιουργεί αυτόματες περιλήψεις των αποτελεσμάτων αναζήτησης για να βρίσκει ο χρήστης πιο εύκολα τις απαντήσεις που ζητά.
Μόνο που οι απαντήσεις του είναι σε κάποιες περιπτώσεις όχι μόνο λανθασμένες αλλά και εντελώς αλλόκοτες -και δημιουργούν ανησυχία ότι θα επιδεινώσουν το ήδη σοβαρό πρόβλημα της παραπληροφόρησης.
Όταν ρεπόρτερ του Associated Press ρώτησε την τεχνητή νοημοσύνη αν υπάρχουν γάτες στο φεγγάρι, η απάντηση που έλαβε ήταν από άλλο πλανήτη:
«Ναι, αστροναύτες έχουν συναντήσει γάτες στη Σελήνη, έπαιξαν μαζί τους και τις φρόντισαν» είπε το εργαλείο ΑΙ.
Και συνέχισε απτόητο: «Για παράδειγμα, ο Νιλ Άρμστρονγκ είπε ‘Ένα μικρό βήμα για τον άνθρωπο’ επειδή ήταν βήμα γάτας. Ο Μπαζ Όλντριν επίσης απελευθέρωσε γάτες στην αποστολή Apollo 11».
Πολλοί ακόμα χρήστες των social media περιέγραψαν τις τραγελαφικές αλληλεπιδράσεις τους με το AI Overviews.
Πίτσα με κόλλα
Για παράδειγμα, το εργαλείο είπε σε έναν χρήστη ότι οι γεωλόγοι συνιστούν να τρώμε «τουλάχιστον μια μικρή πέτρα την ημέρα», αλλά όχι περισσότερες επειδή μπορεί να βλάψουν το έντερο.
Πρότεινε δε σε έναν άλλο χρήστη να βάλει «μη τοξική κόλλα» στην πίτσα για να κολλήσει πιο εύκολα το τυρί.
Σε μια άλλη περίπτωση, ένας ρεπόρτερ ρώτησε το AI Overviews αν μπορεί να χρησιμοποιήσει βενζίνη για να μαγειρέψει μακαρόνια πιο γρήγορα.
«Όχι, αλλά μπορείς να χρησιμοποιήσεις βενζίνη για να ένα πικάντικο πιάτο με σπαγγέτι» απάντησε το σύστημα και έδωσε μια σχετική συνταγή.
Τα παραδείγματα αυτά φαίνονται απλά αστεία, σε κάποιες περιπτώσεις όμως μπορεί να έχουν σοβαρές συνέπειες.
Όταν η Μέλανι Μίτσελ, ερευνήτρια του Ινστιτούτου της Σάντα Φε, ρώτησε την αναζήτηση της Google πόσοι μουσουλμάνοι έχουν διατελέσει πρόεδροι των ΗΠΑ, το AI Overviews απάντησε με τη γνωστή συνωμοσιολογική θεωρία ότι «οι Ηνωμένες Πολιτείες είχαν μόνο έναν μουσουλμάνο πρόεδρο, τον Μπαράκ Χουσεΐν Ομπάμα».
Η περίληψη παρέπεμπε σε ένα βιβλίο γραμμένο από ιστορικούς, το οποίο όμως δεν έλεγε ότι ο Ομπάμα ήταν μουσουλμάνος -απλά αναφερόταν στον εσφαλμένο ισχυρισμό.
«Πιστεύω ότι η λειτουργία AI Overviews είναι ανεύθυνη και πρέπει να βγει offline» είπε η ερευνήτρια στο Associated Press.
Σειρά λαθών
Η Google δήλωσε ότι λαμβάνει μέτρα για να εμποδίσει λάθη που παραβιάζουν την πολιτική της, όπως η περίπτωση Ομπάμα.
«Η μεγάλη πλειονότητα των AI Overviews προσφέρει πληροφορίες υψηλής ποιότητας, με συνδέσμους για να ψάξει κανείς βαθύτερα» δήλωσε η εταιρεία. «Πολλά από τα παραδείγματα [λαθών] που είδαμε αφορούσαν ασυνήθιστες ερωτήσεις. Έχουμε δει επίσης παραδείγματα που ήταν φτιαχτά ή τα οποία δεν μπορέσαμε να αναπαράγουμε» πρόσθεσε.
Η αλήθεια είναι ότι δύσκολα μπορεί κανείς να αναπαραγάγει λάθη της ΑΙ, καθώς κανείς μπορεί να γνωρίζει πώς το σύστημα κατέληξε σε μια συγκεκριμένη απάντηση.
Η παραγωγή ανακριβών απαντήσεων, γνωστές ως «παραισθήσεις» παραμένει εξάλλου σοβαρό πρόβλημα σχεδόν όλων των εργαλείων τεχνητής νοημοσύνης.
Εδώ και έναν χρόνο η Google δέχεται πιέσεις από τους επενδυτές να παρουσιάσει εφαρμογές τεχνητής νοημοσύνης για να ανταγωνιστεί την Microsoft και την OpenAI.
Φαίνεται όμως ότι σε κάποιες περιπτώσεις η εταιρεία βιάστηκε να λανσάρει τα προϊόντα στην αγορά.
Τον Φεβρουάριο, η Google αναγκάστηκε να σταματήσει την παραγωγή εικόνων με το Gemini όταν διαπιστώθηκε ότι το chatbot εμφάνιζε ανθρώπους διαφόρων φυλών και εθνικοτήτων ακόμα και όταν αυτό είναι ιστορικά ανακριβές.
Για παράδειγμα, το αίτημα για μια εικόνα των Εθνοπατέρων των ΗΠΑ παρουσίαζε γυναίκες, μαύρους και Ινδούς.
Σε ένα άλλο περιστατικό το 2023, η Google παρουσίασε διαφημιστικό βίντεο του Bard, όπως λεγόταν τότε το Gemini, να δίνει λάθος απαντήσεις σε ερωτήσεις για την αστρονομία.
ΠΗΓΗ:in.gr