Αντιγράφω από έγκυρη Αμερικανική ιστοσελίδα και παραθέτω σε μετάφραση:
“Έχει χειροτερέψει το μοντέλο GPT-4 της OpenAI; Οι χρήστες κάνουν παρατηρήσεις και εικασίες εδώ και περίπου ένα μήνα, αλλά μια νέα μελέτη φαίνεται να το αποδεικνύει. Η ομάδα της έδωσε 500 προβλήματα, τα οποία αντιμετώπισε τον Μάρτιο και η βαθμολογία της έχει πέσει από το 98% στο 2,4%! Ακόμη και στις προκλήσεις κωδικοποίησης, η βαθμολογία έπεσε από 52% σε 10%.”
Αυτό δεν πρέπει να μας εκπλήσσει ούτε είναι μειωτικό της νέας αυτής δυνατότητας. Η τεχνητή νοημοσύνη ΔΕΝ έχει αντίληψη. Αυτό, το οποίο γράφει ή μάλλον καλύτερα απαντά ή αναλύει προέρχεται από υφιστάμενα ανθρώπινα δεδομένα. Και το ποσοστό βλακείας εδώ είναι απίστευτο. Ως εκ τούτου και η τεχνητή νοημοσύνη, αφού βασίζεται στο υπάρχον υλικό ενώ η ίδια δεν έχει κριτική ικανότητα ή ικανότητα σκέψης αναγκαστικά θα διολισθήσει και στην ηλιθιότητα. Διότι η τελευταία αποτελεί ούτως ή άλλως μέρος της ανθρώπινης ύπαρξης. Και η τεχνητή νοημοσύνη δεν είναι παρά προϊόν της.