Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

LOSSGRAD: automatic learning rate in gradient descent

Tytuł:
LOSSGRAD: automatic learning rate in gradient descent
Autorzy:
Wójcik, Bartosz
Tabor, Jacek
Maziarka, Łukasz
Data publikacji:
2018
Słowa kluczowe:
dynamic learning rate
gradient descent
neural networks
adaptive step size
optimization methods
Język:
angielski
ISBN, ISSN:
17323916
Prawa:
http://creativecommons.org/licenses/by-nd/4.0/legalcode.pl
Udzielam licencji. Uznanie autorstwa - Bez utworów zależnych 4.0 Międzynarodowa
Dostawca treści:
Repozytorium Uniwersytetu Jagiellońskiego
Artykuł
In this paper, we propose a simple, fast and easy to implement algorithm LOSSGRAD (locally optimal step-size in gradient descent), which automatically modifies the step-size in gradient descent during neural networks training. Given a function $f$, a point $x$, and the gradient $nabla_x f$ of $f$, we aim to find the step-size $h$ which is (locally) optimal, i.e. satisfies: $$h=argmin_{t geq 0} f(x-t nabla_x f).$$ Making use of quadratic approximation, we show that the algorithm satisfies the above assumption. We experimentally show that our method is insensitive to the choice of initial learning rate while achieving results comparable to other methods.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies