Διαστατικές τεχνικές προσεγγιστικού υπολογισμού για τη σύνθεση και βελτιστοποίηση των επιταχυντών μηχανικής μάθησης

Περίληψη

Η μηχανική μάθηση έχει εξελιχθεί στον ακρογωνιαίο λίθο των σύγχρονων τεχνολογικών εξελίξεων, με την εντυπωσιακή της ικανότητα να εξάγει χρήσιμες διαπιστώσεις από δεδομένα του πραγματικού κόσμου, επεκτεινόμενη σε διάφορους τομείς εφαρμογών. Η υλοποίηση αλγορίθμων μηχανικής μάθησης σε υλικό τυπικής χρήσης (π.χ., cpu) όμως γίνεται ένα δυσεπίλυτο πρόβλημα, λόγω των αυξημένων απαιτήσεων για ακρίβεια και απόδοση από πλευράς των χρηστών. Οι επιταχυντές μηχανικής μάθησης ειδικού σκοπού, βασισμένοι στην πράξη πολλαπλασιασμού-συσσώρευσης (mac), αναδύονται ως καίριες πλατφόρμες, απαραίτητες για την ανακούφιση της υπολογιστικής πολυπλοκότητας μεγάλων μοντέλων μηχανικής μάθησης μέσω της παραλληλίας των εμπλεκόμενων πράξεων. Ωστόσο, εντοπίζουμε δύο κύριες προκλήσεις στην τρέχουσα υλοποίηση της μηχανικής μάθησης σε επιταχυντές. Πρώτον, το υποκείμενο κύκλωμα επιβαρύνεται από φαινόμενα εγγενούς υποβάθμισης, μειώνοντας την αξιοπιστία και τη δυνητική απόδοση της εφαρμογής. Δεύτερον, ο μαζικός παραλληλισμ ...
περισσότερα

Περίληψη σε άλλη γλώσσα

Machine learning has emerged as the pinnacle of modern technological progress, representing the forefront of state-of-the-art advancements, with its profound capacity to extract useful insights from real-world data, spanning various application domains. However, hardware deployment of ml algorithms on commodity hardware has become a challenging task, due to the increased demands for accuracy and performance. Domain-specific multiply and accumulate (mac)-based ml accelerators emerge as critical components, essential for alleviating the computational complexity of large ml models via parallelization of comprising mac operations. Still, we identify two main challenges with current ml deployment on accelerators. First, underlying circuitry suffers from runtime degradation phenomena, diminishing the reliability and potential performance of the application. Secondly, the massive parallelism causes elevated energy consumption, prohibiting the integration of ml algorithms on resource-constrain ...
περισσότερα

Όλα τα τεκμήρια στο ΕΑΔΔ προστατεύονται από πνευματικά δικαιώματα.

DOI
10.12681/eadd/57080
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/57080
ND
57080
Εναλλακτικός τίτλος
Cross-layer approximation techniques for synthesis and optimization of machine learning accelerators
Συγγραφέας
Μπαλάσκας, Κωνσταντίνος (Πατρώνυμο: Δημήτριος)
Ημερομηνία
2024
Ίδρυμα
Αριστοτέλειο Πανεπιστήμιο Θεσσαλονίκης (ΑΠΘ). Σχολή Θετικών Επιστημών. Τμήμα Φυσικής. Τομέας Ηλεκτρονικής και Υπολογιστών
Εξεταστική επιτροπή
Σιώζιος Κωνσταντίνος
Νικολαΐδης Σπυρίδων
Σούντρης Δημήτριος
Παυλίδης Βασίλειος
Κεραμίδας Γεώργιος
Ζερβάκης Γεώργιος
Henkel Jorg
Επιστημονικό πεδίο
Επιστήμες Μηχανικού και ΤεχνολογίαΕπιστήμη Ηλεκτρολόγου Μηχανικού, Ηλεκτρονικού Μηχανικού, Μηχανικού Η/Υ ➨ Υπολογιστές, Υλικό (hardware) και Αρχιτεκτονική
Λέξεις-κλειδιά
Μηχανική μάθηση; Προσεγγιστικός υπολογισμός; Αυτοματοποιημένη βελτιστοποίηση; Σύνθεση κυκλωμάτων; Γήρανση κυκλωμάτων; Κατασκευαστικές παρεκλίσεις; Βαθιά νευρωνικά δίκτυα; Αραίωση νευρωνικών δικτύων; Κβάντωση νευρωνικών δικτύων; Επιταχυντές υλικού
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
εικ., πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.