Καθώς η αυτοματοποίηση γίνεται ολοένα και περισσότερο μέρος της ζωής μας, κάνοντάς την απλούστερη σε κάποιες περιπτώσεις και δυσκολότερη (ή απλώς διαφορετική, όπως δεν την έχουμε συνηθίσει) σε άλλες, μοιραία πληθαίνουν και τα παραδείγματα όπου η χρήση των μηχανών έχει να κάνει με την κρίση ανθρώπων και συμπεριφορών. Μ’ άλλα λόγια, οι αλγόριθμοι αποφασίζουν (γιατί εμείς τους δώσαμε αυτό το δικαίωμα, προκειμένου να γλυτώσουμε κόπο και χρόνο) για την ποιότητα της δουλειάς κάποιου, τη θέση του, το μέλλον του. Κι αν δεν το κάνουν σε μεγάλο βαθμό σήμερα, καθώς σε κάποιο στάδιο της αυτοματοποιημένης διαδικασίας υπάρχει ακόμα και παίζει ρόλο ο ανθρώπινος παράγοντας, είναι βέβαιο πως στο -όχι και τόσο απομακρυσμένο- μέλλον, αυτός θα μειώνεται συνεχώς…
Ακόμα και στη χώρα μας -που δεν φημίζεται δα, για τις πρωτοποριακές πρωτοβουλίες της- όλο και πιο συχνά μου έρχονται τηλεφωνικά ή μέσω mail αιτήματα για να κρίνω και να βαθμολογήσω μια υπηρεσία που μου προσφέρθηκε, με κύριο επιχείρημα ότι «έτσι μας βοηθάτε να γίνουμε καλύτεροι»… Προφανώς, πρόκειται για αυτοματοποιημένες διαδικασίες, οι οποίες καταγράφουν τους (καλούς, μέτριους ή κακούς) βαθμούς που έχει λάβει ο agent με τον οποίο έγινε η συναλλαγή μου και στο τέλος της ημέρας ελέγχουν τις επιδόσεις του, βγάζοντας ένα συντελεστή (το δικό του rating) ο οποίος παίζει σημαντικό ρόλο στην εξέλιξή του. Τέτοια automated-decision-systems υπάρχουν, επίσης, σε πλήθος άλλους χώρους και για εντελώς διαφορετικούς λόγους, από την κατάταξη των ειδήσεων σε μια ενημερωτική ιστοσελίδα ως το τμήμα δανείων μιας τράπεζας στην οποία έχουμε υποβάλει το αίτημά μας, και ως τις προτάσεις που δεχόμαστε, όταν ψωνίζουμε στα eShops. Οι αλγόριθμοι αποφασίζουν πριν από εμάς, για εμάς…
Το θέμα είναι πώς και γιατί αποφασίζουν μ’ αυτό τον τρόπο; Ή, να το θέσουμε αλλιώς, ποιος καθορίζει τον τρόπο που αυτοί αποφασίζουν για τη δική μας ζωή, το δικό μας μέλλον; Μια τέτοια κουβέντα προφανώς μπορεί να κρατήσει μέρες, καθώς τα κριτήρια και οι επιλογές για τα συστήματα μηχανικής μάθησης, που βοηθούν τους αλγορίθμους να αποφασίζουν όσο γίνεται πιο σωστά, κατά την επεξεργασία των δεδομένων μας, είναι άπειρα και συνήθως μυστικά – τα συστήματα αυτά μαθαίνουν κυριολεκτικά στην πλάτη μας… Εξ ου και οι (συχνές) κατηγόριες (τις περισσότερες φορές από εύπιστους στα κάθε λογής σενάρια συνωμοσίας) για λάθος ρυθμίσεις και «προκατειλημμένους» αλγορίθμους, που δείχνουν ρατσιστικές, ομοφοβικές ή ό,τι άλλο τάσεις. Κι ας λένε οι ειδήμονες (πολύ σωστά, βεβαίως) πως οι καημένοι οι αλγόριθμοι το μόνο που ξέρουν να κάνουν, είναι πράξεις και συγκρίσεις πολύ-πολύ γρήγορα! Ό,τι τους δώσεις, από πλευράς ποιότητας και ορθότητας δεδομένων, κάτι ανάλογο θα πάρεις ως αποτέλεσμα…
Κι όπως έγραψε πρόσφατα το τεχνολογικό vortal της Bloomberg, ένα κλασικό ‘σφάλμα συστήματος’ που απαντάται συχνά, είναι η σύγχυση μεταξύ της ποιότητας του προϊόντος ή της υπηρεσίας και της επίδοσης του τεχνικού ο οποίος προσπάθησε να βοηθήσει τον «πελάτη». Αν υπάρχει πρόβλημα με το πρώτο, είναι βέβαιο ότι η μπάλα θα πάρει και τον δεύτερο, όσο κι αν προσπαθήσει να σώσει την κατάσταση… Ένα κλασικό παράδειγμα, είναι οι τηλεπικοινωνιακές εταιρίες, όπου αν όντως υπάρχει κάποιο πρόβλημα στις γραμμές ή τα μηχανήματα, ο τεχνικός ακούει τα εξ αμάξης, όσο κι αν προσπαθεί να διορθώσει τη βλάβη! Προφανώς, υπάρχει και η δική του φωνή που πρέπει να ακουστεί, για το stress το οποίο προσθέτει όλη αυτή η διαδικασία της «βαθμοθηρίας» (ή «αστροθηρίας», αν η βαθμολόγηση γίνεται με αστεράκια) στην καθημερινή εργασία του.
Κι ακόμα μιλάμε για σχετικώς απλά και εν πολλοίς ανώδυνα πράγματα… Σκεφθείτε σε λίγα χρόνια, με το τσουνάμι της αυτοματοποίησης των πάντων να πλησιάζει ταχύτατα και την Τεχνητή Νοημοσύνη να επεκτείνεται οριζόντια προς όλες τις κατευθύνσεις, τι έχει να γίνει… Όταν ο δικαστής, ο τραπεζίτης, ο κυβερνητικός αξιωματούχος, ο στρατιωτικός αποφασίζει ψυχρά και αντικειμενικά, με τη βοήθεια προηγμένων συστημάτων υποστήριξης αποφάσεων… Που, όμως, δεν ξέρουμε (και δεν πρόκειται να μάθουμε) ποιος τα προγραμμάτισε και σε ποια (κοινωνικά και ηθικά, κυρίως) κριτήρια βασίστηκε… Φοβάμαι λιγάκι, ε;
[social_share googleplus="no" linkedin="yes" whatsapp="no" viber="no"]