Αρχιτεκτονική πολλαπλών μονάδων επεξεργασίας για ταχεία εξαγωγή συμπερασμάτων από βαθιά νευρωνικά δίκτυα

Περίληψη

Η εξαγωγή συμπερασμάτων (inference) σε βαθιά νευρωνικά δίκτυα (deep neural networks, DNNs) βασίζεται ολοένα και περισσότερο σε εξειδικευμένους επιταχυντές υλικού για την επίτευξη υψηλών επιδόσεων. Η παρούσα διατριβή εστιάζει στην επιτάχυνση τελεστών (operators) βαθιών νευρωνικών δικτύων σε υλικό τεχνολογίας FPGA, με έμφαση στον γενικό πολλαπλασιασμό μητρώων (general matrix-matrix multiplication, GEMM). Παράλληλα, αναπτύχθηκε σύστημα εξομοίωσης σε FPGA που μοντελοποιεί τις μη-ιδανικότητες των memristive συσκευών μνήμης για τη διερεύνηση, σε επίπεδο συστήματος, αρχιτεκτονικών αναλογικής υπολογιστικής εντός μνήμης (analog in-memory computing, AIMC) και των εφαρμογών τους. Προτείνεται ένας επιταχυντής υλικού που ενσωματώνει συστολικές διατάξεις (systolic arrays), μνήμη υψηλού εύρους ζώνης (HBM) και μνήμες UltraRAM. Επιπλέον, παρουσιάζουμε δύο διαμορφώσεις για τις μονάδες επεξεργασίας (processing units, PUs) με διαφορετικές υπολογιστικές δυνατότητες, αξιοποιώντας τις ίδιες διεπαφές και τα ί ...
περισσότερα

Περίληψη σε άλλη γλώσσα

Deep neural network (DNN) inference increasingly relies on specialized hardware for high computational efficiency. This thesis presents a scalable architecture for DNN inference acceleration, prototyped on an FPGA, with a focus on general matrix-matrix multiplication (GEMM)-based operations. Also, it develops a hardware emulator to support system-level architectural exploration of analog in-memory computing (AIMC) and its application to DNN inference. We introduce a dynamically configurable accelerator featuring systolic arrays, high-bandwidth memory, and UltraRAMs. In addition, we implement two configurations of the processing unit (PU) architecture, with different compute performance, using the same interfaces and peripheral blocks. By instantiating multiple PUs and employing a heuristic scheduling strategy for weight transfers, the proposed architecture achieves higher throughput efficiency over prior works. To orchestrate multi-PU execution without using a single deployment strateg ...
περισσότερα

Όλα τα τεκμήρια στο ΕΑΔΔ προστατεύονται από πνευματικά δικαιώματα.

DOI
10.12681/eadd/61092
Διεύθυνση Handle
http://hdl.handle.net/10442/hedi/61092
ND
61092
Εναλλακτικός τίτλος
Architecture of multiple processing units for accelerating deep neural network inference
Συγγραφέας
Πετρόπουλος, Αναστάσιος (Πατρώνυμο: Ηλίας)
Ημερομηνία
01/2026
Ίδρυμα
Πανεπιστήμιο Πατρών. Σχολή Πολυτεχνική. Τμήμα Ηλεκτρολόγων Μηχανικών και Τεχνολογίας Υπολογιστών
Εξεταστική επιτροπή
Αντωνακόπουλος Θεόδωρος
Παλιουράς Βασίλειος
Μπερμπερίδης Κωνσταντίνος
Μπίρμπας Αλέξιος
Μπίρμπας Μιχαήλ
Μουστάκας Κωνσταντίνος
Θεοδωρίδης Γεώργιος
Επιστημονικό πεδίο
Επιστήμες Μηχανικού και ΤεχνολογίαΕπιστήμη Ηλεκτρολόγου Μηχανικού, Ηλεκτρονικού Μηχανικού, Μηχανικού Η/Υ ➨ Υπολογιστές, Υλικό (hardware) και Αρχιτεκτονική
Λέξεις-κλειδιά
Βαθιά νευρωνικά δίκτυα; Επιταχυντές υλικού; Συστολικές διατάξεις; Εξομοιωτές υλικού
Χώρα
Ελλάδα
Γλώσσα
Αγγλικά
Άλλα στοιχεία
πιν., σχημ., γραφ.
Στατιστικά χρήσης
ΠΡΟΒΟΛΕΣ
Αφορά στις μοναδικές επισκέψεις της διδακτορικής διατριβής για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΞΕΦΥΛΛΙΣΜΑΤΑ
Αφορά στο άνοιγμα του online αναγνώστη για την χρονική περίοδο 07/2018 - 07/2023.
Πηγή: Google Analytics.
ΜΕΤΑΦΟΡΤΩΣΕΙΣ
Αφορά στο σύνολο των μεταφορτώσων του αρχείου της διδακτορικής διατριβής.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.
ΧΡΗΣΤΕΣ
Αφορά στους συνδεδεμένους στο σύστημα χρήστες οι οποίοι έχουν αλληλεπιδράσει με τη διδακτορική διατριβή. Ως επί το πλείστον, αφορά τις μεταφορτώσεις.
Πηγή: Εθνικό Αρχείο Διδακτορικών Διατριβών.