Μελέτη και βελτιστοποίηση κατανεμημένης εκπαίδευσης νευρωνικών δικτύων στην αρχιτεκτονική του εξυπηρετητή παραμέτρων

Περίληψη

Οι μέθοδοι βαθιάς μάθησης έχουν μεταμορφώσει πλήθος τομέων αξιοποιώντας μεγάλες ποσότητες δεδομένων και πολύπλοκες αρχιτεκτονικές νευρωνικών δικτύων. Παράλληλα οι υπολογιστικές απαιτήσεις των σύγχρονων μοντέλων συχνά υπερβαίνουν τις δυνατότητες ενός μόνο υπολογιστή, οδηγώντας σε ανάγκη για κατανεμημένη εκπαίδευση. Στην παρούσα διατριβή εξετάζουμε την ασύγχρονη εκπαίδευση υπό το πρίσμα της αρχιτεκτονικής του διακομιστή παραμέτρων, με έμφαση στη βελτίωση της απόδοσης και της σταθερότητας. Καταρχήν, μέσω μίας συγκριτική αξιολόγησης στα πλαίσια της διατριβής αποδεικνύεται ότι η αρχιτεκτονική του εξυπηρετητή παραμέτρων προσφέρει σημαντικά υψηλότερη απόδοση στα πλαίσια εκπαίδευσης νευρωνικών δικτύων σε σχέση με γενικού σκοπού αρχιτεκτονικές επεξεργασίας μεγάλων δεδομένων σε κατανεμημένα περιβάλλοντα. Μέσω συστηματικής βιβλιογραφικής ανασκόπησης γίνεται παρουσιάση των ερευνητικών αξόνων που σχετίζονται με την αρχιτεκτονική του εξυπηρετητή παραμέτρων. Ένας από τους πιο κρίσιμους άξονες έρευνας ...
περισσότερα

Περίληψη σε άλλη γλώσσα

Deep learning has transformed numerous fields by leveraging vast datasets and complex neural architectures, but the computational demands of modern models often exceed single-node capabilities, prompting distributed training solutions. This thesis investigates asynchronous training under the parameter server paradigm, focusing on enhancing both performance and stability. First, a thorough comparative analysis demonstrates that specialized distributed architectures deliver substantially higher throughput than general-purpose data-processing frameworks at large scales. Following a systematic literature review, consistency control and the mitigation of stale gradients as pivotal challenges in asynchronous setups are identified. To address these, a hybrid Strategy-Switch approach is introduced that begins with synchronous communication to identify a promising solution region before transitioning to asynchronous updates based on an empirically derived switching criterion, achieving both rap ...
περισσότερα

Όλα τα τεκμήρια στο ΕΑΔΔ προστατεύονται από πνευματικά δικαιώματα.

DOI
10.12681/eadd/60025
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/60025
ND
60025
Εναλλακτικός τίτλος
Study and optimization of distributed deep learning under the parameter server architecture
Συγγραφέας
Προβατάς, Νικόδημος (Πατρώνυμο: Κωνσταντίνος)
Ημερομηνία
2025
Ίδρυμα
Εθνικό Μετσόβιο Πολυτεχνείο (ΕΜΠ). Σχολή Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών. Τομέας Τεχνολογίας Πληροφορικής και Υπολογιστών. Εργαστήριο Υπολογιστικών Συστημάτων
Εξεταστική επιτροπή
Κοζύρης Νεκτάριος
Κωνσταντίνου Ιωάννης
Τσουμάκος Δημήτριος
Γκούμας Γεώργιος
Γουνόπουλος Δημήτριος
Πνευματικάτος Διονύσιος
Πάλλης Γεώργιος
Επιστημονικό πεδίο
Επιστήμες Μηχανικού και ΤεχνολογίαΕπιστήμη Ηλεκτρολόγου Μηχανικού, Ηλεκτρονικού Μηχανικού, Μηχανικού Η/Υ ➨ Υπολογιστές, Υλικό (hardware) και Αρχιτεκτονική
Λέξεις-κλειδιά
Εξυπηρετητής Παραμέτρων; Βαθιά μηχανική μάθηση; Κατανεμημένη Εκπαίδευση; Ασύγχρονη εκπαίδευση; Διαχείριση δεδομένων; Μεγάλα δεδομένα
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
εικ., πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.