Επωνύμως…

Μηχανικές κρίσεις, συγκρίσεις & διακρίσεις

Μηχανικές κρίσεις, συγκρίσεις & διακρίσεις

Καθώς η αυτοματοποίηση γίνεται ολοένα και περισσότερο μέρος της ζωής μας, κάνοντάς την απλούστερη σε κάποιες περιπτώσεις και δυσκολότερη (ή απλώς διαφορετική, όπως δεν την έχουμε συνηθίσει) σε άλλες, μοιραία πληθαίνουν και τα παραδείγματα όπου η χρήση των μηχανών έχει να κάνει με την κρίση ανθρώπων και συμπεριφορών. Μ’ άλλα λόγια, οι αλγόριθμοι αποφασίζουν (γιατί εμείς τους δώσαμε αυτό το δικαίωμα, προκειμένου να γλυτώσουμε κόπο και χρόνο) για την ποιότητα της δουλειάς κάποιου, τη θέση του, το μέλλον του. Κι αν δεν το κάνουν σε μεγάλο βαθμό σήμερα, καθώς σε κάποιο στάδιο της αυτοματοποιημένης διαδικασίας υπάρχει ακόμα και παίζει ρόλο ο ανθρώπινος παράγοντας, είναι βέβαιο πως στο -όχι και τόσο απομακρυσμένο- μέλλον, αυτός θα μειώνεται συνεχώς…

Ακόμα και στη χώρα μας -που δεν φημίζεται δα, για τις πρωτοποριακές πρωτοβουλίες της- όλο και πιο συχνά μου έρχονται τηλεφωνικά ή μέσω mail αιτήματα για να κρίνω και να βαθμολογήσω μια υπηρεσία που μου προσφέρθηκε, με κύριο επιχείρημα ότι «έτσι μας βοηθάτε να γίνουμε καλύτεροι»… Προφανώς, πρόκειται για αυτοματοποιημένες διαδικασίες, οι οποίες καταγράφουν τους (καλούς, μέτριους ή κακούς) βαθμούς που έχει λάβει ο agent με τον οποίο έγινε η συναλλαγή μου και στο τέλος της ημέρας ελέγχουν τις επιδόσεις του, βγάζοντας ένα συντελεστή (το δικό του rating) ο οποίος παίζει σημαντικό ρόλο στην εξέλιξή του. Τέτοια automated-decision-systems υπάρχουν, επίσης, σε πλήθος άλλους χώρους και για εντελώς διαφορετικούς λόγους, από την κατάταξη των ειδήσεων σε μια ενημερωτική ιστοσελίδα ως το τμήμα δανείων μιας τράπεζας στην οποία έχουμε υποβάλει το αίτημά μας, και ως τις προτάσεις που δεχόμαστε, όταν ψωνίζουμε στα eShops. Οι αλγόριθμοι αποφασίζουν πριν από εμάς, για εμάς…

Το θέμα είναι πώς και γιατί αποφασίζουν μ’ αυτό τον τρόπο; Ή, να το θέσουμε αλλιώς, ποιος καθορίζει τον τρόπο που αυτοί αποφασίζουν για τη δική μας ζωή, το δικό μας μέλλον; Μια τέτοια κουβέντα προφανώς μπορεί να κρατήσει μέρες, καθώς τα κριτήρια και οι επιλογές για τα συστήματα μηχανικής μάθησης, που βοηθούν τους αλγορίθμους να αποφασίζουν όσο γίνεται πιο σωστά, κατά την επεξεργασία των δεδομένων μας, είναι άπειρα και συνήθως μυστικά – τα συστήματα αυτά μαθαίνουν κυριολεκτικά στην πλάτη μας… Εξ ου και οι (συχνές) κατηγόριες (τις περισσότερες φορές από εύπιστους στα κάθε λογής σενάρια συνωμοσίας) για λάθος ρυθμίσεις και «προκατειλημμένους» αλγορίθμους, που δείχνουν ρατσιστικές, ομοφοβικές ή ό,τι άλλο τάσεις. Κι ας λένε οι ειδήμονες (πολύ σωστά, βεβαίως) πως οι καημένοι οι αλγόριθμοι το μόνο που ξέρουν να κάνουν, είναι πράξεις και συγκρίσεις πολύ-πολύ γρήγορα! Ό,τι τους δώσεις, από πλευράς ποιότητας και ορθότητας δεδομένων, κάτι ανάλογο θα πάρεις ως αποτέλεσμα…        

Κι όπως έγραψε πρόσφατα το τεχνολογικό vortal της Bloomberg, ένα κλασικό ‘σφάλμα συστήματος’ που απαντάται συχνά, είναι η σύγχυση μεταξύ της ποιότητας του προϊόντος ή της υπηρεσίας και της επίδοσης του τεχνικού ο οποίος προσπάθησε να βοηθήσει τον «πελάτη». Αν υπάρχει πρόβλημα με το πρώτο, είναι βέβαιο ότι η μπάλα θα πάρει και τον δεύτερο, όσο κι αν προσπαθήσει να σώσει την κατάσταση… Ένα κλασικό παράδειγμα, είναι οι τηλεπικοινωνιακές εταιρίες, όπου αν όντως υπάρχει κάποιο πρόβλημα στις γραμμές ή τα μηχανήματα, ο τεχνικός ακούει τα εξ αμάξης, όσο κι αν προσπαθεί να διορθώσει τη βλάβη! Προφανώς, υπάρχει και η δική του φωνή που πρέπει να ακουστεί, για το stress το οποίο προσθέτει όλη αυτή η διαδικασία της «βαθμοθηρίας» (ή «αστροθηρίας», αν η βαθμολόγηση γίνεται με αστεράκια) στην καθημερινή εργασία του.

Κι ακόμα μιλάμε για σχετικώς απλά και εν πολλοίς ανώδυνα πράγματα… Σκεφθείτε σε λίγα χρόνια, με το τσουνάμι της αυτοματοποίησης των πάντων να πλησιάζει ταχύτατα και την Τεχνητή Νοημοσύνη να επεκτείνεται οριζόντια προς όλες τις κατευθύνσεις, τι έχει να γίνει… Όταν ο δικαστής, ο τραπεζίτης, ο κυβερνητικός αξιωματούχος, ο στρατιωτικός αποφασίζει ψυχρά και αντικειμενικά, με τη βοήθεια προηγμένων συστημάτων υποστήριξης αποφάσεων… Που, όμως, δεν ξέρουμε (και δεν πρόκειται να μάθουμε) ποιος τα προγραμμάτισε και σε ποια (κοινωνικά και ηθικά, κυρίως) κριτήρια βασίστηκε… Φοβάμαι λιγάκι, ε;   

[social_share googleplus="no" linkedin="yes" whatsapp="no" viber="no"]

 
Image
Image

Follow Us

Image
Εγγραφή στο Newsletter

Θα λαμβάνετε κάθε εβδομάδα τα πιο hot άρθρα στο email σας!

Image
Image

Πρόσφατα άρθρα Επωνύμως…

Image
Image

See also from Verticom

Image
Image
Image
Image
Image
Image

Categories Menu

Site Menu

Image

Κόμβος πληροφόρησης για θέματα και εφαρμογές που αφορούν στις ψηφιακές τεχνολογίες και το Ηλεκτρονικό Επιχειρείν.

Stay in Touch

Εγγραφείτε στο εβδομαδιαίο Newsletter για να λαμβάνετε τα πιο hot άρθρα στο email σας!

Διεύθυνση εταιρείας

Ευμολπιδών 23
118 54, Αθήνα

Γενικές πληροφορίες

info@verticom.gr
(+30) 210 924 55 77

Αρθρογραφία

Διαφήμιση

© 2024 WebWorldNews. All Rights Reserved.Design & Development by Verticom

Search