Activation functions pada Neural Networks

       Activation functions adalah fungsi matematika yang digunakan pada jaringan saraf tiruan (neural network) untuk menentukan output dari sebuah neuron. Fungsi ini digunakan untuk mengubah input menjadi output yang lebih sesuai dengan format yang dibutuhkan oleh jaringan saraf. Ada beberapa jenis fungsi aktivasi yang digunakan pada jaringan saraf, diantaranya adalah sigmoid, ReLU, dan tanh.

Sigmoid adalah fungsi aktivasi yang sering digunakan pada jaringan saraf. Fungsi ini mengubah input menjadi output yang berada dalam rentang antara 0 dan 1. Sigmoid cocok digunakan pada kasus klasifikasi biner.

Informasi Lebih Lengkap tentang Activation Function Kunjungi: https://digoogling.com/activation-functions-sigmoid-tanh-relu-leaky-relu-prelu-elu-threshold-relu-dan-softmax

ReLU (Rectified Linear Unit) adalah fungsi aktivasi yang mengubah input menjadi output yang sama dengan atau lebih besar dari nol. ReLU sangat efektif dalam mengatasi masalah eksplosif gradien (exploding gradient problem).

tanh (hyperbolic tangent) adalah fungsi aktivasi yang mengubah input menjadi output yang berada dalam rentang antara -1 dan 1. Fungsi ini cocok digunakan pada kasus klasifikasi multi-kelas.

Pemilihan jenis fungsi aktivasi yang digunakan pada jaringan saraf dapat mempengaruhi kinerja jaringan dan dapat menentukan hasil akhir dari jaringan saraf. Oleh karena itu, perlu dipertimbangkan dengan baik dalam pemilihan jenis fungsi aktivasi yang digunakan.



Posting Komentar

0 Komentar

Ad Code

Responsive Advertisement