Τοπική ερμηνεία μοντέλων μηχανικής μάθησης

Περίληψη

Η πρόοδος στον κλάδο της πληροφορικής, και η ανάπτυξη του πεδίου της τεχνητής νοημοσύνης και μηχανικής μάθησης έχει δημιουργήσει έφορο έδαφος για την ανάπτυξη εφαρμογών, με ασύλληπτες έως πρότινος δυνατότητες. Ωστόσο, η χρήση εφαρμογών μηχανικής μάθησης σε ορισμένους τομείς μπορεί να καταστεί απαγορευτική. Πράγματι, όταν διακυβεύονται ανθρώπινες ζωές, οι αποφάσεις των συστημάτων που βασίζονται στην τεχνητή νοημοσύνη πρέπει να είναι αξιόπιστες. Η επεξηγηματικότητα είναι ένας τρόπος για την ικανοποίηση αυτών των κριτηρίων. Ωστόσο, για να επιτευχθεί η επεξηγηματικότητα σε επίπεδο χρήστη, πρέπει να αντιμετωπιστούν προβλήματα που αφορούν την ερμηνευσιμότητα. Αυτό είναι ιδιαίτερα αισθητό σε συστήματα που εμπεριέχουν μοντέλα μηχανικής μάθησης. Παρόλο που ορισμένα μοντέλα είναι εγγενώς ερμηνεύσιμα, τα μοντέλα με τις καλύτερες επιδόσεις είναι μη ερμηνεύσιμα. Τα μοντέλα τυχαίου δάσους, για παράδειγμα, είναι πολύπλοκα μοντέλα που διαπρέπουν σε εργασίες όπως η ανίχνευση απάτης και η πρόβλεψη πιθαν ...
περισσότερα

Περίληψη σε άλλη γλώσσα

While Artificial Intelligence paves the way for new advancements and opens up new possibilities, its use in certain domains may be prohibited. Indeed, when human lives are at stake, AI-driven systems' decisions must be reliable and trustworthy. Explainability is one way to meet these criteria. However, in order to achieve user-level explainability, interpretability concerns must be addressed first. This is especially noticeable in AI systems comprised of machine learning pipelines. Although some models are intrinsically interpretable, the top performing ones are uninterpretable. Random forest models, for example, are complex models that excel at tasks like fraud detection and disease probability prediction. Even though their subcomponents, the decision trees, can be interpreted, random forests cannot inherently provide reasons for their decisions. Furthermore, neural networks that achieve superhuman abilities in analysing both structured and unstructured data are almost always uninterp ...
περισσότερα

Όλα τα τεκμήρια στο ΕΑΔΔ προστατεύονται από πνευματικά δικαιώματα.

DOI
10.12681/eadd/54400
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/54400
ND
54400
Εναλλακτικός τίτλος
Local interpretation of machine learning models
Συγγραφέας
Μολλάς, Ιωάννης (Πατρώνυμο: Αντώνιος)
Ημερομηνία
2023
Ίδρυμα
Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης (ΑΠΘ). Σχολή Θετικών Επιστημών. Τμήμα Πληροφορικής
Εξεταστική επιτροπή
Βασιλειάδης Νικόλαος
Βλαχάβας Ιωάννης
Τσουμάκας Γρηγόριος
Τέφας Αναστάσιος
Μεδίτσκος Γεώργιος
Βούρος Γεώργιος
Καλαμπόκης Ευάγγελος
Επιστημονικό πεδίο
Φυσικές ΕπιστήμεςΕπιστήμη Ηλεκτρονικών Υπολογιστών και Πληροφορική ➨ Τεχνητή νοημοσύνη
Λέξεις-κλειδιά
Μηχανική μάθηση; Επεξηγήσιμη τεχνητή νοημοσύνη; Ερμηνεύσιμη μηχανική μάθηση; Τοπική ερμηνευσιμότητα
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
εικ., πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
Σχετικές εγγραφές (με βάση τις επισκέψεις των χρηστών)