Fungsi Aktifasi pada
Jaringan Syaraf Tiruan
Fungsi
Aktivasi (μ) mendefinisikan nilai output dari sebuah neuron pada level aktivasi
tertentu berdasarkan nilai output dari pengombinasi linier. Fungsi ini dipakai
untuk menentukan keluaran suatu neuron. Ada beberapa jenis fungsi
aktivasi yang sering dipakai, yaitu :
A.
Hard Limit (Tangga Biner)
Fungsi ini sering dipakai oleh jaringan dengan lapisan
tunggal (single neural network) untuk penyelesaian masalah yang bersifat
linier. Output dari fungsi ini adalah pengkonversian input yang bernilai
continue menjadi bilangan biner (0 atau 1).
B.
Symetric Hard Limit (Bipolar)
Fungsi ini adalah pengembangan dari fungsi Hard Limit, hanya saja fungsi
ini mempunyai output antara 1, 0 atau 1.
C.
Threshold
Fungsi ini adalah fungsi hasil modifikasi dari fungsi
Hard Limit dengan menambahkan nilai threshold ( Ѳ ).
D.
Bipolar Threshold
Fungsi hasil pengembangan dari fungsi threshold, dimana
fungsi ini memiliki 3 nilai keluaran, yaitu 1, 0 atau 1.
E. Linear (Identity)
Fungsi ini mempunyai nilai keluaran yang sama dengan nalai masukannya (y = x).
Fungsi ini mempunyai nilai keluaran yang sama dengan nalai masukannya (y = x).
F. Sigmoid
Biner
Fungsi ini
sering digunakan dalam jaringan Backpropagation. Fungsi ini memiliki sifat
nonlinear sehingga sangat baik untuk diterapkan dalam penyelesaian masalah yang
kompleks. Output dari fungsi Sigmoid Biner berupa bilangan biner (0 atau 1)
atau output berupa nilai-nilai yang berada pada interval 0 sampai 1.
G. Sigmoid
Bipolar (Symetric Sigmoid)
Fungsi ini fungsi sigmoid yang mempunyai interval nilai antara 1 sampai 1
Fungsi ini fungsi sigmoid yang mempunyai interval nilai antara 1 sampai 1
No comments:
Post a Comment