Přejít k hlavnímu obsahu

Přihlášení pro studenty

Přihlášení pro zaměstnance

Publikace detail

Battle royale optimizer for training multi-layer perceptron
Autoři: Agahian Saeid | Akan Taymaz
Rok: 2022
Druh publikace: článek v odborném periodiku
Název zdroje: Evolving Systems
Název nakladatele: Springer
Místo vydání: Vídeň
Strana od-do: nestránkováno
Tituly:
Jazyk Název Abstrakt Klíčová slova
cze Battle royale optimalizátor pro trénink vícevrstvého perceptronu Umělá neuronová síť (ANN) je jedním z nejúspěšnějších nástrojů ve strojovém učení. Úspěch ANN závisí především na jeho architektuře a postupu učení. Vícevrstvý perceptron (MLP) je populární forma ANN. Kromě toho je backpropagation dobře známým přístupem založeným na gradientu pro trénování MLP. Přístupy k vyhledávání založené na gradientech mají nízkou míru konvergence; proto se mohou zaseknout v lokálních minimech, což může vést ke snížení výkonu. Školení MLP je realizováno na základě minimalizace celkové chyby sítě, kterou lze považovat za optimalizační problém. Stochastické optimalizační algoritmy se ukázaly jako účinné při řešení takových problémů. Battle royale optimalizace (BRO) je nedávno navržený populační metaheuristický algoritmus, který lze aplikovat na jednokriteriální optimalizaci nad spojitými problémovými prostory. Navržená metoda byla porovnána se zpětnou propagací (Generalized learning delta rule) a šest známých optimalizačních algoritmů na deseti datových sadách klasifikačních benchmarků. Experimenty potvrzují, že podle chybovosti, přesnosti a konvergence přináší navrhovaný přístup slibné výsledky a překonává své konkurenty. Feed-forward neuronová síť; trénink neuronové sítě; vícevrstvý perceptron; optimalizace Battle royale; metaheuristika
eng Battle royale optimizer for training multi-layer perceptron Artificial neural network (ANN) is one of the most successful tools in machine learning. The success of ANN mostly depends on its architecture and learning procedure. Multi-layer perceptron (MLP) is a popular form of ANN. Moreover, backpropagation is a well-known gradient-based approach for training MLP. Gradient-based search approaches have a low convergence rate; therefore, they may get stuck in local minima, which may lead to performance degradation. Training the MLP is accomplished based on minimizing the total network error, which can be considered as an optimization problem. Stochastic optimization algorithms are proven to be effective when dealing with such problems. Battle royale optimization (BRO) is a recently proposed population-based metaheuristic algorithm which can be applied to single-objective optimization over continuous problem spaces. The proposed method has been compared with backpropagation (Generalized learning delta rule) and six well-known optimization algorithms on ten classification benchmark datasets. Experiments confirm that, according to error rate, accuracy, and convergence, the proposed approach yields promising results and outperforms its competitors. Feed-forward neural network; Neural network training; Multilayer perceptron; Battle royale optimization; Metaheuristic