Funkcja aktywacji

W tym artykule zajmiemy się tematem Funkcja aktywacji, który był przedmiotem zainteresowania i dyskusji w ostatnich latach. Funkcja aktywacji to temat o dużym znaczeniu, który wywołał różne opinie i stanowiska wśród ekspertów i ogółu społeczeństwa. W tym artykule zbadamy różne aspekty związane z Funkcja aktywacji, od jego historycznego pochodzenia po dzisiejsze implikacje. Ponadto przeanalizujemy różne badania i podejścia do Funkcja aktywacji, aby zaoferować wszechstronną i zaktualizowaną wizję tego ważnego tematu. Bez wątpienia Funkcja aktywacji to temat, który nie pozostawia nikogo obojętnym, dlatego tak istotne jest pogłębienie jego zrozumienia i analizy.

Funkcja aktywacji – pojęcie używane w sztucznej inteligencji do określenia funkcji, według której obliczana jest wartość wyjścia neuronów sieci neuronowej.

Po agregacji danych wejściowych z uwzględnieniem wag powstaje sygnał sumarycznego pobudzenia. Rola funkcji aktywacji polega na tym, że musi ona określić sposób obliczania wartości sygnału wyjściowego neuronu na podstawie wartości tego sumarycznego pobudzenia[1].

W literaturze rozważano wiele różnych propozycji funkcji aktywacji, jednak najpowszechniejsze są cztery: funkcja liniowa (neuron liniowy), funkcja sigmoidalna (funkcja logistyczna, neuron sigmoidalny), funkcja tangensoidalna (funkcja tangens hiperboliczny, neuron tangensoidalny) oraz funkcja Gaussa (neuron radialny)[1].

W poniższej tabeli przedstawiono funkcje aktywacji wraz z wzorami matematycznymi i dodatkowymi informacjami.

Funkcja aktywacji Wzór matematyczny Gładka Monotoniczna Różniczkowalna Uwagi
Funkcja liniowa T T T
  • Funkcja nieograniczona
  • Z reguły
Jednostronnie obcięta funkcja liniowa (ReLU) T T T (oprócz punktu )
  • Brak górnej granicy
Obcięta funkcja liniowa

N T T (oprócz punktów i )
  • Przedziałami liniowa
Funkcja progowa unipolarna

N T N
  • a – zadana wartość progowa
  • Z reguły
  • Taką funkcję aktywacji zastosowali w swojej pracy jako matematyczny model neuronu Warren McCulloch i Walter Pitts
Funkcja progowa bipolarna

N T N
  • a – zadana wartość progowa
  • Z reguły
Sigmoidalna funkcja unipolarna (funkcja logistyczna)

T T T
  • Z reguły
  • Gdy funkcja przechodzi w progową unipolarną funkcję aktywacji
Sigmoidalna funkcja bipolarna (tangens hiperboliczny)

T T T
  • Z reguły
  • Gdy funkcja przechodzi w progową bipolarną funkcję aktywacji
Funkcja Gaussa

T N T
Znormalizowana funkcja wykładnicza (softmax) T T T
  • Prawdopodobieństwo zawsze sumuje się do jedności:
  • e – liczba Eulera
  • K – szerokość wektorów wejściowego i wyjściowego
  • Stosowana głównie w najwyższej warstwie klasyfikatorów, w celu obliczenia prawdopodobieństwa przynależności wektora wejściowego z do każdej z K klas wyjściowych

Przypisy