Rectified Linear Units

Unit linier yang diperbaiki (RELU) paling sering digunakan dalam pembelajaran mendalam. Relu adalah fungsi aktivasi yang digunakan dalam jaringan saraf untuk memperkenalkan non-linearitas. Ini adalah cara sederhana dan efektif untuk memperkenalkan non-linearitas dalam jaringan saraf, dan telah terbukti meningkatkan kinerja jaringan saraf dalam dalam berbagai tugas seperti klasifikasi gambar, pengenalan ucapan, dan pemrosesan bahasa alami.

Berikut ini adalah postingan khusus kamus AI Kami yang menjelaskan terkait pembahasan mengenai apa itu pengertian, maksud, dan akronim, istilah, jargon, atau terminologi Rectified Linear Units berdasarkan dari berbagai jenis macam reference atau referensi relevan terpercaya yang telah Kami rangkum dan kumpulkan, termasuk definisinya menurut ahli.

Gambar Penjelasan Apa Pengertian Arti Rectified Linear Units Dan Definisi Istilah Akronim Atau Jargon Kata Dalam Kamus AI
Ilustrasi Gambar Penjelasan Apa Itu Pengertian Arti Dan Definisi Istilah Akronim Atau Jargon Kata Teknisnya

Pengertian Umum Rectified Linear Units

Rectified Linear Units (ReLU) adalah salah satu jenis fungsi aktivasi yang digunakan dalam jaringan saraf tiruan. Fungsi ini pertama kali diperkenalkan oleh Hahnloser pada tahun 2000 dan kemudian diadopsi oleh jaringan saraf tiruan pada tahun 2010. ReLU memiliki sifat non-linear dan sangat efektif dalam mempercepat proses pelatihan jaringan saraf tiruan.

Definisi Menurut Ahli

Menurut Goodfellow et al. (2016) dalam bukunya “Deep Learning”, ReLU didefinisikan sebagai fungsi matematika yang menghasilkan nilai nol jika inputnya negatif dan menghasilkan nilai inputnya jika inputnya positif. Fungsi ini dinyatakan sebagai:

f(x) = max(0, x)

Di sisi lain, LeCun et al. (2015) dalam paper “Deep Learning” menjelaskan bahwa ReLU adalah fungsi aktivasi yang paling umum digunakan dalam jaringan saraf tiruan saat ini. Fungsi ini memiliki keuntungan dalam hal komputasi dan pelatihan jaringan, serta mampu mengatasi masalah gradien yang menghilang atau meledak.

Fungsi Rectified Linear Unit (ReLU)

Rectified Linear Unit (ReLU) adalah fungsi aktivasi yang paling umum digunakan dalam jaringan saraf tiruan. Fungsi ini mengubah nilai input menjadi nilai output yang positif atau nol. Fungsi ReLU didefinisikan sebagai:

f(x) = max(0, x)

Di mana x adalah nilai input dan f(x) adalah nilai output. Jika nilai input x positif, maka nilai output f(x) sama dengan nilai input x. Namun, jika nilai input x negatif, maka nilai output f(x) sama dengan nol.

Contoh Rectified Linear Unit (ReLU)

Contoh penggunaan fungsi ReLU adalah pada layer aktivasi dalam jaringan saraf tiruan. Misalnya, pada layer input terdapat 100 neuron dengan nilai input yang berbeda-beda. Kemudian, layer tersebut dihubungkan dengan layer aktivasi ReLU. Fungsi ReLU akan mengubah nilai input menjadi nilai output yang positif atau nol. Sehingga, pada layer aktivasi ReLU terdapat 100 neuron dengan nilai output yang berbeda-beda, namun semua nilai output tersebut pasti positif atau nol.

Rumus atau Formula Rectified Linear Units

Rectified Linear Units (ReLU) adalah salah satu jenis fungsi aktivasi yang digunakan dalam jaringan saraf tiruan. Fungsi ini sangat populer karena sederhana dan efektif dalam mempercepat proses pelatihan model.

Rumus atau formula ReLU dapat dituliskan sebagai berikut:

Simbol yang terdapat dalam rumus ReLU adalah:

  • f(x): fungsi ReLU
  • x: input dari fungsi ReLU
  • max(): fungsi maksimum yang mengembalikan nilai terbesar antara dua nilai yang diberikan
  • 0: nilai ambang batas bawah

Dalam implementasinya, jika nilai input x lebih kecil dari 0, maka nilai output akan menjadi 0. Namun, jika nilai input x lebih besar atau sama dengan 0, maka nilai output akan sama dengan nilai input x.

Jenis Macam Arti Unit Linier Yang Diperbaiki dalam Kamus Terjemahan Bahasa Inggris, Indonesia, Jawa, Sunda, dan Malaysia

Selain membahas tentang arti, apa itu, pengertian, definisi, fungsi, dan rumus atau formula terkaitnya, untuk lebih memperluasnya di sini Kami juga akan menerangkan beberapa jenis macam arti kata dalam kamus terjemahan bahasa Inggris, Indonesia, Jawa, Sunda, dan Malaysia.

Agar dapat dengan mudah dipahami, di postingan khusus Kamus AI ini Kami akan menjelaskannya dalam bentuk tabel terjemahan bahasa Inggris, Indonesia, Jawa, Sunda, dan Malaysia sebagai berikut.

Nama Bahasa Terjemahan
Bahasa Inggris Rectified Linear Units
Bahasa Indonesia Unit Linier Yang Diperbaiki
Bahasa Jawa Unit Linear Sing Diowahi
Bahasa Sunda Unit Linear
Bahasa Malaysia Unit Linear Yang Diperbetulkan

Beberapa Paper (Artikel Ilmiah atau Makalah) atau Buku yang Terkait dengan Istilah Rectified Linear Units serta Link atau Tautannya

Di bawah ini adalah beberapa jenis macam paper (termasuk artikel ilmiah atau makalah) dan Buku yang berkaitan dengan istilah Rectified Linear Units:

  1. “Rectified Linear Units Improve Restricted Boltzmann Machines” oleh Vinod Nair dan Geoffrey E. Hinton (2010) – https://www.cs.toronto.edu/~fritz/absps/reluICML.pdf
  2. “Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification” oleh Kaiming He, Xiangyu Zhang, Shaoqing Ren, dan Jian Sun (2015) – https://arxiv.org/abs/1502.01852
  3. “Empirical Evaluation of Rectified Activations in Convolutional Network” oleh Benjamin Graham (2014) – https://arxiv.org/abs/1505.00853
  4. “On the Effectiveness of Linearly Combining RBMs and Convolutional Neural Networks” oleh Honglak Lee, Roger Grosse, Rajesh Ranganath, dan Andrew Y. Ng (2009) – https://www.cs.toronto.edu/~hinton/absps/leeicml09.pdf
  5. “Deep Residual Learning for Image Recognition” oleh Kaiming He, Xiangyu Zhang, Shaoqing Ren, dan Jian Sun (2016) – https://arxiv.org/abs/1512.03385

Kesimpulan

Itulah beberapa hal yang dapat Kami jelaskan dalam postingan khusus kamus, glosarium, atau kumpulan istilah kata Rectified Linear Units.

Rectified Linear Units (ReLU) adalah salah satu jenis fungsi aktivasi yang digunakan dalam jaringan saraf tiruan (Artificial Neural Network) pada bidang kecerdasan buatan (AI). Fungsi ReLU sangat penting dalam AI karena mampu mengatasi masalah vanishing gradient yang sering terjadi pada fungsi aktivasi lainnya. Selain itu, ReLU juga memungkinkan jaringan saraf untuk belajar lebih cepat dan efisien karena hanya memperhitungkan nilai positif dari input. Dalam praktiknya, ReLU telah terbukti memberikan hasil yang lebih baik dalam pengenalan gambar dan pengenalan suara. Oleh karena itu, pemahaman tentang ReLU sangat penting bagi para pengembang AI untuk meningkatkan kinerja jaringan saraf dan mencapai hasil yang lebih baik dalam aplikasi kecerdasan buatan.

Penutup

Demikianlah, di atas adalah penjelasan dan penguraian tentang apa itu arti dari akronim, istilah, jargon, atau terminologi Rectified Linear Units.

Semoga kamus, glosarium, atau kumpulan istilah teknis bidang teknologi khususnya Artificial Intelligence, kecerdasan buatan, atau AI yang sudah Kami bagikan di sini dapat bermanfaat serta dapat menambah wawasan para pembaca.

Jangan lupa kunjungi, baca, dan lihat juga pembahasan istilah lainnya di laman Kamus AI Kami.

Sumber (Referensi)

Glosarium Kamus AI ini dibuat berdasar dari simpulan arti definisi dari berbagai referensi terkait (relevan) yang Kami anggap terpercaya termasuk seperti Wikipedia, Deep AI, Open AI, Oxford Technology Dictionary dan beberapa sumber lainnya. Kata Rectified Linear Units ini merupakan salah satu dari kumpulan istilah terkait Deep Learning dalam konteks atau bidang AI yang dimulai dengan awalan atau huruf R. Artikel Kamus AI ini di-update pada bulan May tahun 2024.

Tinggalkan Komentar