Dalam contoh model Keras yang diberikan dalam bidang Kepintaran Buatan, beberapa fungsi pengaktifan digunakan dalam lapisan. Fungsi pengaktifan memainkan peranan penting dalam rangkaian saraf kerana ia memperkenalkan bukan lineariti, membolehkan rangkaian mempelajari corak kompleks dan membuat ramalan yang tepat. Dalam Keras, fungsi pengaktifan boleh ditentukan untuk setiap lapisan model, membenarkan fleksibiliti dalam mereka bentuk seni bina rangkaian.
Fungsi pengaktifan yang digunakan dalam lapisan model Keras dalam contoh adalah seperti berikut:
1. ReLU (Rectified Linear Unit): ReLU ialah salah satu fungsi pengaktifan yang paling biasa digunakan dalam pembelajaran mendalam. Ia ditakrifkan sebagai f(x) = max(0, x), dengan x ialah input kepada fungsi. ReLU menetapkan semua nilai negatif kepada sifar dan mengekalkan nilai positif tidak berubah. Fungsi pengaktifan ini adalah cekap dari segi pengiraan dan membantu dalam mengurangkan masalah kecerunan yang hilang.
2. Softmax: Softmax sering digunakan dalam lapisan terakhir masalah klasifikasi berbilang kelas. Ia menukarkan output lapisan sebelumnya kepada taburan kebarangkalian ke atas kelas. Softmax ditakrifkan sebagai f(x) = exp(x[i])/sum(exp(x[j])), dengan x[i] ialah input kepada fungsi untuk kelas i, dan jumlahnya diambil alih semua kelas. Nilai output fungsi softmax berjumlah 1, menjadikannya sesuai untuk tafsiran kebarangkalian.
3. Sigmoid: Sigmoid ialah fungsi pengaktifan popular yang digunakan dalam masalah klasifikasi binari. Ia memetakan input kepada nilai antara 0 dan 1, mewakili kebarangkalian input kepunyaan kelas positif. Sigmoid ditakrifkan sebagai f(x) = 1/(1 + exp(-x)). Ia licin dan boleh dibezakan, menjadikannya sesuai untuk algoritma pengoptimuman berasaskan kecerunan.
4. Tanh (Hyperbolic Tangent): Tanh adalah serupa dengan fungsi sigmoid tetapi memetakan input kepada nilai antara -1 dan 1. Ia ditakrifkan sebagai f(x) = (exp(x) – exp(-x))/(exp(x) + exp(-x)). Tanh sering digunakan dalam lapisan tersembunyi rangkaian saraf kerana ia memperkenalkan bukan lineariti dan membantu dalam menangkap corak yang kompleks.
Fungsi pengaktifan ini digunakan secara meluas dalam pelbagai seni bina rangkaian saraf dan telah terbukti berkesan dalam tugas pembelajaran mesin yang berbeza. Adalah penting untuk memilih fungsi pengaktifan yang sesuai berdasarkan masalah yang dihadapi dan ciri-ciri data.
Untuk menggambarkan penggunaan fungsi pengaktifan ini, pertimbangkan contoh mudah rangkaian saraf untuk klasifikasi imej. Lapisan input menerima nilai piksel imej, dan lapisan seterusnya menggunakan operasi konvolusi diikuti dengan pengaktifan ReLU untuk mengekstrak ciri. Lapisan akhir menggunakan pengaktifan softmax untuk menghasilkan kebarangkalian imej yang dimiliki oleh kelas yang berbeza.
Fungsi pengaktifan yang digunakan dalam lapisan model Keras dalam contoh yang diberikan ialah ReLU, softmax, sigmoid dan tanh. Setiap fungsi ini mempunyai tujuan tertentu dan dipilih berdasarkan keperluan masalah. Memahami peranan fungsi pengaktifan adalah penting dalam mereka bentuk seni bina rangkaian saraf yang berkesan.
Soalan dan jawapan terbaru lain mengenai Kemajuan dalam Pembelajaran Mesin:
- Apakah batasan dalam bekerja dengan set data besar dalam pembelajaran mesin?
- Bolehkah pembelajaran mesin melakukan beberapa bantuan dialog?
- Apakah taman permainan TensorFlow?
- Adakah mod bersemangat menghalang kefungsian pengkomputeran yang diedarkan TensorFlow?
- Bolehkah penyelesaian awan Google digunakan untuk memisahkan pengkomputeran daripada storan untuk latihan model ML yang lebih cekap dengan data besar?
- Adakah Enjin Pembelajaran Mesin Awan Google (CMLE) menawarkan pemerolehan dan konfigurasi sumber automatik serta mengendalikan penutupan sumber selepas latihan model selesai?
- Adakah mungkin untuk melatih model pembelajaran mesin pada set data yang besar secara sewenang-wenangnya tanpa gangguan?
- Apabila menggunakan CMLE, adakah membuat versi memerlukan menentukan sumber model yang dieksport?
- Bolehkah CMLE membaca daripada data storan Google Cloud dan menggunakan model terlatih yang ditentukan untuk inferens?
- Bolehkah Tensorflow digunakan untuk latihan dan inferens rangkaian saraf dalam (DNN)?
Lihat lebih banyak soalan dan jawapan dalam Memajukan Pembelajaran Mesin