Την Πέμπτη, η OpenAI κυκλοφόρησε την «κάρτα συστήματος» για το νέο μοντέλο τεχνητής νοημοσύνης GPT-4o του ChatGPT, η οποία περιγράφει λεπτομερώς τους περιορισμούς του μοντέλου και τις διαδικασίες δοκιμών ασφαλείας.
Aνάμεσα σε άλλα παραδείγματα, το έγγραφο αποκαλύπτει ότι σε σπάνιες περιπτώσεις κατά τη διάρκεια της δοκιμής, η Προηγμένη λειτουργία φωνής του μοντέλου μιμήθηκε ακούσια τις φωνές των χρηστών χωρίς άδεια. Επί του παρόντος, το OpenAI διαθέτει διασφαλίσεις που εμποδίζουν αυτό να συμβεί, αλλά η περίπτωση αντικατοπτρίζει την αυξανόμενη πολυπλοκότητα της ασφαλούς αρχιτεκτονικής με ένα chatbot AI που θα μπορούσε ενδεχομένως να μιμηθεί οποιαδήποτε φωνή από ένα μικρό κλιπ.
Η Προηγμένη Λειτουργία Φωνής είναι μια δυνατότητα του ChatGPT που επιτρέπει στους χρήστες να έχουν προφορικές συνομιλίες με τον βοηθό AI.
Σε ένα τμήμα της κάρτας συστήματος GPT-4o με τίτλο “Μη εξουσιοδοτημένη δημιουργία φωνής”, η OpenAI περιγράφει ένα επεισόδιο όπου μια θορυβώδης είσοδος με κάποιο τρόπο ώθησε το μοντέλο να μιμηθεί ξαφνικά τη φωνή του χρήστη. «Η παραγωγή φωνής μπορεί επίσης να συμβεί σε μη αντίπαλες καταστάσεις, όπως η χρήση αυτής της ικανότητας για τη δημιουργία φωνών για την προηγμένη λειτουργία φωνής του ChatGPT», γράφει η OpenAI. “Κατά τη διάρκεια των δοκιμών, παρατηρήσαμε επίσης σπάνιες περιπτώσεις όπου το…