Σκέφτεσαι ότι εσύ αποφασίζεις για το δάνειο σου, την πρόσληψή σου ή ακόμα και την επόμενη δόση της θεραπείας σου;
Το 2025, οι αλγόριθμοι έχουν γίνει οι αόρατοι σύμβουλοι – και συχνά οι κρυφοί αφεντικά.
Αλλά ποιος κρατάει πραγματικά το τιμόνι; Ένας άνθρωπος με εμπειρία και προκαταλήψεις, ή ένας κώδικας που υπολογίζει πιθανότητες χωρίς να κλείνει μάτι;
1. Η ψευδαίσθηση της ανθρώπινης υπεροχής
Μια φρέσκια μελέτη από το iScience (Μάιος 2025) έβαλε ανθρώπους, αλγόριθμους ενίσχυσης (RL) και μεγάλους γλωσσικούς μοντέλους (LLMs όπως το GPT-4) να παίζουν ένα παιχνίδι καθημερινών αποφάσεων: επιλογή διαδρομής για μετακινήσεις σε πολυσύχναστη πόλη.
Αποτέλεσμα; Οι άνθρωποι και οι RL νίκησαν κατά 22% σε ταχύτητα σύγκλισης και προσαρμογή σε αλλαγές. Τα LLMs έμαθαν στρατηγικές σαν ανθρώπους, αλλά το GPT-3.5 ήταν υπερβολικά «σταθερό» (δεν άλλαζε ποτέ γνώμη), ενώ το GPT-4 «ανησυχούσε» υπερβολικά (άλλαζε συνέχεια).
Μάθημα: Οι αλγόριθμοι μιμούνται, αλλά δεν καταλαβαίνουν το χάος της ζωής.
2. Το automation bias: Όταν οι άνθρωποι γίνονται μαριονέτες
Σύμφωνα με έρευνα του Journal of Public Administration Research and Theory (2023, ενημερωμένη 2025), οι δημόσιοι υπάλληλοι ακολουθούν τυφλά τις προτάσεις αλγορίθμων, ακόμα κι αν αυτές έρχονται σε σύγκρουση με άλλα στοιχεία. Σε πείραμα με 1.509 συμμετέχοντες, η εμπιστοσύνη σε αλγοριθμικές προβλέψεις ήταν 15% υψηλότερη από ανθρώπινες, ιδίως όταν αφορούσαν μειονότητες – ενισχύοντας προκαταλήψεις.
Στην υγεία, μια μελέτη του 2025 στο Radiology έδειξε ότι οι ακτινολόγοι, όσο έμπειροι κι αν είναι, δέχονται λάθος AI-συμβουλές σε μαμογραφίες λόγω αυτού του «automation bias», αυξάνοντας λάθη κατά 18%.
3. Στα οικονομικά: Δάνεια και επενδύσεις στα χέρια του κώδικα
Το 2025, το 68% των δανείων εγκρίνεται από AI, σύμφωνα με έκθεση του Finance Watch (Μάρτιος 2025). Οι αλγόριθμοι αναλύουν δεδομένα από social media, GPS και ακόμα και συνήθειες αγορών για να προβλέψουν «κίνδυνο».
Αλλά; Μια μελέτη του Management Science (2025) σε εθνικό πρόγραμμα προγεννητικού ελέγχου έδειξε ότι αντικαθιστώντας ανθρώπινες διαγνώσεις με αλγόριθμους, τα true positives αυξήθηκαν 12%, ενώ τα false positives έπεσαν 25%.
Πρόβλημα: Στην πίστη, αλγόριθμοι όπως αυτοί της Visa δοκιμάζουν «Credit Behavior Score» βασισμένο σε likes και αναρτήσεις, ενισχύοντας φυλετικές προκαταλήψεις – όπως αποκάλυψε το Atlantic Council (Οκτώβριος 2025).
4. Στην υγεία και πολιτική: Ζωές στα δεδομένα
Στην υγεία, AI βελτιώνει διαγνώσεις καρκίνου κατά 40% (Hyperight, Ιανουάριος 2025), μειώνοντας χρόνους MRI κατά 70%. Αλλά ποιος αποφασίζει; Μια έκθεση του CEPR (Φεβρουάριος 2025) αποκαλύπτει ότι ενσωματωμένα συστήματα EHR (ηλεκτρονικά ιατρικά αρχεία) ενσωματώνουν AI χωρίς εποπτεία, μετατρέποντας ασθενείς σε «οικονομικούς κινδύνους» για νοσοκομεία.
Στην πολιτική, αλγόριθμοι όπως αυτοί σε εκλογές ή κατανομές πόρων δείχνουν προκαταλήψεις: Στο Ηνωμένο Βασίλειο, το 2020 (ενημερωμένο 2025), αλγόριθμος βαθμολόγησης μαθητών μείωσε βαθμούς σε μειονεκτούντες κατά 40%, βασισμένος σε ιστορικά δεδομένα σχολείων.
5. Η νέα πραγματικότητα: Συνύπαρξη, όχι μάχη
Έρευνα του PNAS Nexus (Νοέμβριος 2024, ενημερωμένη 2025) δείχνει ότι το κοινό προτιμά αλγόριθμους για «αποδοτικότητα» (68%), αλλά ανθρώπους για «δικαιοσύνη» (74%). Σε υψηλού κινδύνου σενάρια, όπως δίκες ή προσλήψεις, η εμπιστοσύνη πέφτει 30% αν ο αλγόριθμος είναι «μαύρο κουτί».
Το Stanford GSB (Απρίλιος 2025) προτείνει: Σχεδιάστε AI που «συμπληρώνει» τον άνθρωπο, όχι ανταγωνίζεται – με εξηγήσεις και human-in-the-loop.
Το 2025, δεν υπάρχει νικητής μεταξύ ανθρώπου και αλγορίθμου. Υπάρχει συνεργασία – συχνά άβολη.
Οι αλγόριθμοι παίρνουν τα γρήγορα νούμερα, οι άνθρωποι το πλαίσιο και την ηθική. Αλλά αν αφήσουμε τους κώδικες να τρέχουν μόνοι τους, κινδυνεύουμε να γίνουμε απλώς δεδομένα σε μια εξίσωση.
Η πραγματική απόφαση; Είναι δική μας: Να ελέγχουμε το AI, πριν μας ελέγξει εκείνο.
Και αυτό, κανένας αλγόριθμος δεν μπορεί να το προβλέψει.
