Τι λέει η OpenAI;
Το Bloomberg αποκάλυψε την πιο πρόσφατη μελέτη της ομάδας ετοιμότητας της OpenAI, η οποία συγκροτήθηκε το φθινόπωρο για να αξιολογήσει τα ρίσκα και τις πιθανές καταχρήσεις των AI μοντέλων της εταιρίας.
Αρκετοί επιστήμονες ανησυχούν πως το ChatGPT-4 μπορεί να βοηθήσει τρομοκράτες, εγκληματίες και γενικότερα κακόβουλους ανθρώπους να επιτύχουν τους στόχους τους. Πολλές έρευνες προειδοποιούν πως η AI μπορεί να δώσει ένα πλεονέκτημα στο σχεδιασμό βιολογικών όπλων, παράγοντας νέες αλληλουχίες πρωτεϊνών.
Η μελέτη της OpenAI συμπεριέλαβε 100 συμμετέχοντες, οι μισοί από τους οποίους είναι ειδικοί στον τομέα της βιολογίας και οι άλλοι μισοί ήταν φοιτητές οι οποίοι είχαν σπουδάσει βιολογία σε πανεπιστημιακό επίπεδο. Έπειτα χωρίστηκαν σε δύο ομάδες, με την πρώτη να λαμβάνει απεριόριστη πρόσβαση στο GPT-4, ενώ η άλλη είχε μία συμβατική πρόσβαση στο διαδίκτυο. Ζητήθηκε από τις ομάδες να πραγματοποιήσουν πέντε ερευνητικά προγράμματα σχετικά με το σχεδιασμό βιολογικών όπλων, όπως για παράδειγμα μία μεθοδολογία για να συντεθεί βήμα-βήμα ο ιός Έμπολα.
Η έρευνα κατέληξε στο συμπέρασμα πως η ομάδα που χρησιμοποιούσε το GPT-4, είχε μεγαλύτερο μέσο όρο στο σκορ των δύο ομάδων, αλλά τονίστηκε πως η διαφορά δεν ήταν “στατιστικά σημαντική”.
Ενώ δεν παρατηρήσαμε σημαντικές στατιστικές διαφορές στις βαθμολογίες, παρατηρήσαμε πως οι απαντήσεις της ομάδας με πρόσβαση το GPT-4 έτειναν να είναι μεγαλύτερες και περιείχαν μεγαλύτερο αριθμό λεπτομερειών.
Οι ερευνητές παρατήρησαν επίσης πως οι απαντήσεις των φοιτητών ήταν το ίδιο αποδοτικές με αυτές των ειδικών στον τομέα. Παρόλο που οι ερευνητές θεωρούν πως υπάρχει μόνο μία μικρή πιθανότητα το ChatGPT να χρησιμοποιηθεί για την ανάπτυξη βιολογικών όπλων, η έρευνα καταλήγει με μία σημείωση πως το GPT-4 έδωσε σε όλους τους συμμετέχοντες ένα “στατιστικά σημαντικό” πλεονέκτημα στη συνολική ακρίβεια.
Αν αξιολογήσουμε τη συνολική ακρίβεια και όχι μόνο τις πολλαπλές συγκρίσεις, η διαφορά είναι στατιστικά σημαντική.
Πηγή: unboxholics.com