Kliv in i en oändlig värld av stories
Fakta
Recently, deep learning has caused a significant impact on computer vision, speech recognition, and natural language understanding. In spite of the remarkable advances, deep learning recent performance gains have been modest and usually rely on increasing the depth of the models, which often requires more computational resources such as processing time and memory usage. To tackle this problem, we turned our attention to the interworking between the activation functions and the batch normalization, which is virtually mandatory currently. In this work, we propose the activation function Displaced Rectifier Linear Unit (DReLU) by conjecturing that extending the identity function of ReLU to the third quadrant enhances compatibility with batch normalization. Moreover, we used statistical tests to compare the impact of using distinct activation functions (ReLU, LReLU, PReLU, ELU, and DReLU) on the learning speed and test accuracy performance of VGG and Residual Networks state-of-the-art models. These convolutional neural networks were trained on CIFAR-10 and CIFAR-100, the most commonly used deep learning computer vision datasets. The results showed DReLU speeded up learning in all models and datasets. Besides, statistical significant performance assessments (p<0.05) showed DReLU enhanced the test accuracy obtained by ReLU in all scenarios. Furthermore, DReLU showed better test accuracy than any other tested activation function in all experiments with one exception.
© 2022 Editora Dialética (E-bok): 9786525230757
Utgivningsdatum
E-bok: 25 mars 2022
1 miljon stories
Lyssna och läs offline
Exklusiva nyheter varje vecka
Kids Mode (barnsäker miljö)
För dig som lyssnar och läser ofta.
1 konto
100 timmar/månad
Exklusivt innehåll varje vecka
Avsluta när du vill
Obegränsad lyssning på podcasts
För dig som vill lyssna och läsa obegränsat.
1 konto
Lyssna obegränsat
Exklusivt innehåll varje vecka
Avsluta när du vill
Obegränsad lyssning på podcasts
För dig som vill dela stories med hela familjen.
2-6 konton
100 timmar/månad för varje konto
Exklusivt innehåll varje vecka
Avsluta när du vill
Obegränsad lyssning på podcasts
2 konton
239 kr /månadFör dig som vill prova Storytel.
1 konto
20 timmar/månad
Spara upp till 100 olyssnade timmar
Exklusivt innehåll varje vecka
Avsluta när du vill
Obegränsad lyssning på podcasts
Svenska
Sverige