Περίληψη
Η χρήση τεχνικών Τεχνητής Νοημοσύνης (ΤΝ) στη διαδικασία λήψης αποφάσεων και στην εξαγωγή προβλέψεων αποτελεί ένα από τα πλέον δυναμικά αναπτυσσόμενα ερευνητικά πεδία των τελευταίων ετών. Ωστόσο, η περιορισμένη διαθεσιμότητα δεδομένων, καθώς και οι ελλείψεις ή η αβεβαιότητα που συχνά τα χαρακτηρίζουν, επηρεάζουν αρνητικά την αποδοτικότητα και την αξιοπιστία των μοντέλων που αναπτύσσονται στο πεδίο. Επιπλέον, η έλλειψη διαφάνειας ως προς τον τρόπο που παράγονται τα αποτελέσματα από μεθόδους Μηχανικής Μάθησης (ΜΜ), βασισμένες σε Νευρωνικά Δίκτυα – δηλαδή μεθόδους της συνδεσμικής προσέγγισης (connectionist approach), οι οποίες συχνά λειτουργούν ως «μαύρα κουτιά» – περιορίζει την ερμηνευσιμότητα και τη δυνατότητα τεκμηριωμένης αξιοποίησής τους σε αντίθεση με τις μεθόδους της συμβολικής προσέγγισης (symbolic approach), όπως οι βασισμένες σε κανόνες (rule-based) ή περιπτώσεις (case-based) τεχνικές. Η ανάγκη κατανόησης και ερμηνείας των αποτελεσμάτων των παραπάνω μοντέλων έχει οδηγήσει στην α ...
Η χρήση τεχνικών Τεχνητής Νοημοσύνης (ΤΝ) στη διαδικασία λήψης αποφάσεων και στην εξαγωγή προβλέψεων αποτελεί ένα από τα πλέον δυναμικά αναπτυσσόμενα ερευνητικά πεδία των τελευταίων ετών. Ωστόσο, η περιορισμένη διαθεσιμότητα δεδομένων, καθώς και οι ελλείψεις ή η αβεβαιότητα που συχνά τα χαρακτηρίζουν, επηρεάζουν αρνητικά την αποδοτικότητα και την αξιοπιστία των μοντέλων που αναπτύσσονται στο πεδίο. Επιπλέον, η έλλειψη διαφάνειας ως προς τον τρόπο που παράγονται τα αποτελέσματα από μεθόδους Μηχανικής Μάθησης (ΜΜ), βασισμένες σε Νευρωνικά Δίκτυα – δηλαδή μεθόδους της συνδεσμικής προσέγγισης (connectionist approach), οι οποίες συχνά λειτουργούν ως «μαύρα κουτιά» – περιορίζει την ερμηνευσιμότητα και τη δυνατότητα τεκμηριωμένης αξιοποίησής τους σε αντίθεση με τις μεθόδους της συμβολικής προσέγγισης (symbolic approach), όπως οι βασισμένες σε κανόνες (rule-based) ή περιπτώσεις (case-based) τεχνικές. Η ανάγκη κατανόησης και ερμηνείας των αποτελεσμάτων των παραπάνω μοντέλων έχει οδηγήσει στην ανάπτυξη του πεδίου της Επεξηγήσιμης Τεχνητής Νοημοσύνης (Explainable Artificial Intelligence – XAI), το οποίο στοχεύει στη δημιουργία διαφανών συστημάτων που επιτρέπουν στους χρήστες να κατανοούν τους λόγους πίσω από τις αποφάσεις ή τις προβλέψεις των αλγορίθμων ΤΝ. Για την αντιμετώπιση των παραπάνω προκλήσεων έχει αποδειχθεί ότι ο συνδυασμός διαφορετικών μεθοδολογιών (υβριδισμός) οδηγεί σε πιο αξιόπιστες και αποτελεσματικές λύσεις. Στην παρούσα διδακτορική διατριβή (ΔΔ) αναλύεται και προτείνεται μια υβριδική μεθοδολογία συλλογιστικής, η οποία συνδυάζει διαφορετικές μεθόδους της συμβολικής προσέγγισης και συγκεκριμένα τη Συλλογιστική Βάσει Κανόνων (ΣΒΚ) και Συλλογιστική Βάσει Περιπτώσεων (ΣΒΠ) με την Εξόρυξη Διεργασιών (ΕΔ). Η μεθοδολογία αυτή εφαρμόσθηκε στο πλαίσιο της ΔΔ σε δεδομένα τριών διαφορετικών πεδίων για: i. την ανάπτυξη ενός Συστήματος Υποστήριξης Αποφάσεων για την παροχή εξατομικευμένων υπηρεσιών φροντίδας σε άτομα με Διαταραχές Aυτιστικού Φάσματος (ΔΑΦ). Ο τομέας της υγείας (δεδομένα υγείας) αποτελεί κατεξοχήν πεδίο εφαρμογής υβριδικών συστημάτων συλλογιστικής/αιτιολόγησης. Με βασικό στόχο τη βελτιστοποίηση των συστημάτων διαχείρισης υγείας, τα εν λόγω υβριδικά μοντέλα συμβάλλουν ουσιαστικά στη βελτίωση της ποιότητας ζωής και φροντίδας των ασθενών. ii. την ανάπτυξη ενός Συστήματος Υποστήριξης Αποφάσεων IDS4CLIMA, σε σχετικά με την κλιματική αλλαγή θέματα. To εργαλείο ενσωματώνει την προτεινόμενη υβριδική συλλογιστική (ΣΒΠ, ΣΒΚ και ΕΔ), επιδιώκοντας να ενισχύσει την ικανότητα λήψης τεκμηριωμένων και αποτελεσματικών αποφάσεων σε συνθήκες όπου συχνά η έγκυρη επιστημονική γνώση συνυπάρχει με αβεβαιότητα και παραπληροφόρηση. iii. την ανάπτυξη ενός Συστήματος Υποστήριξης Αποφάσεων COMP-DST, για θέματα Δικαίου και Πολιτικής Ανταγωνισμού. Μέσω της ολοκληρωμένης, τριών επιπέδων προσέγγισης, το προτεινόμενο εργαλείο (Comp-DST) δομεί και αξιοποιεί συστηματικά γνώσεις σχετικά με το Δίκαιο και την Πολιτική Ανταγωνισμού, αποσκοπώντας να διευκολύνει τους εμπειρογνώμονες στην ανάλυση και διερεύνηση υποθέσεων και να βελτιώσει την αποτελεσματικότητα και αξιοπιστία τους. Συνολικά, τα αποτελέσματα καταδεικνύουν ότι οι υβριδικές προσεγγίσεις μπορούν να αποτελέσουν κρίσιμο εργαλείο για τη βελτίωση της διαφάνειας, ερμηνευσιμότητας και της αξιοπιστίας των συστημάτων υποστήριξης αποφάσεων σε πολύπλοκα και κοινωνικά ευαίσθητα πεδία.
περισσότερα
Περίληψη σε άλλη γλώσσα
The use of Artificial Intelligence (AI) techniques in decision-making and predictive processes constitutes one of the most dynamically evolving research fields in recent years. However, the limited availability of data, as well as the deficiencies or uncertainty that often characterize them, negatively affect the efficiency and reliability of the developed models in this field. Furthermore, the lack of transparency regarding the way results are produced by Machine Learning (ML) methods based on Neural Networks — methods that characterize the connectionist approach —often operate as “black boxes,” restricting interpretability and the reasoning to justify their use. This contradicts symbolic approaches, such as Rule-Based or Case-Based Reasoning methods. The need to understand and interpret the results of these models has led to the development of the field of Explainable Artificial Intelligence (XAI), which aims to create transparent and comprehensible systems that enable users to under ...
The use of Artificial Intelligence (AI) techniques in decision-making and predictive processes constitutes one of the most dynamically evolving research fields in recent years. However, the limited availability of data, as well as the deficiencies or uncertainty that often characterize them, negatively affect the efficiency and reliability of the developed models in this field. Furthermore, the lack of transparency regarding the way results are produced by Machine Learning (ML) methods based on Neural Networks — methods that characterize the connectionist approach —often operate as “black boxes,” restricting interpretability and the reasoning to justify their use. This contradicts symbolic approaches, such as Rule-Based or Case-Based Reasoning methods. The need to understand and interpret the results of these models has led to the development of the field of Explainable Artificial Intelligence (XAI), which aims to create transparent and comprehensible systems that enable users to understand the reasoning behind AI-driven decisions or predictions. To address the above challenges, the combination of different methodologies (hybridization) has been shown to lead to more reliable and effective solutions. In this dissertation (PhD thesis), a hybrid reasoning methodology is analyzed and proposed, combining different methods of the symbolic approach – specifically, Rule-Based Reasoning (RBR) and Case-Based Reasoning (CBR) with Process Mining (PM). This methodology was applied to data from three different domains in order to: i. Develop a Decision Support System for providing personalized care services to individuals with Autism Spectrum Disorders (ASD). The healthcare domain (health data) represents a prominent area for the application of hybrid reasoning systems. With the primary objective of optimizing healthcare management systems, such hybrid models contribute significantly to improving patients’ quality of life and the quality of care provided. ii. Develop the IDS4CLIMA Decision Support System, addressing climate change challenges. The tool integrates the proposed hybrid reasoning (CBR, RBR, and PM) and aims to enhance the capacity for evidence-based and effective decision-making under conditions, where valid scientific knowledge coexists with uncertainty and misinformation. The IDS4CLIMA may also be integrated with other methodologies for assessing environmental costs in monetary terms. iii. Develop the COMP-DST Decision Support System, focused on Competition Law and Policy. Through an integrated, three-level approach, the proposed tool (COMP-DST) systematically structures and utilizes knowledge related to Competition Law and Policy, aiming to assist experts in the analysis and investigation of cases and to improve their efficiency and reliability. Overall, the results demonstrate that hybrid approaches can serve as a critical tool for enhancing the transparency, interpretability, and reliability of decision-support systems in complex and socially sensitive domains.
περισσότερα