From 941389e02f7bceed1346b7be8765bca21df8203c Mon Sep 17 00:00:00 2001 From: unknown Date: Wed, 29 May 2019 19:27:29 +0900 Subject: [PATCH 1/5] Translating DNN to Indonesian --- id/cheatsheet-deep-learning.md | 321 +++++++++++++++++++++++++++++++++ 1 file changed, 321 insertions(+) create mode 100644 id/cheatsheet-deep-learning.md diff --git a/id/cheatsheet-deep-learning.md b/id/cheatsheet-deep-learning.md new file mode 100644 index 000000000..38ff5d834 --- /dev/null +++ b/id/cheatsheet-deep-learning.md @@ -0,0 +1,321 @@ +**1. Deep Learning cheatsheet** + +⟶Deep Learning cheatsheet + +
+ +**2. Neural Networks** + +⟶Neural Network + +
+ +**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** + +⟶Neural network adalah sebuah model yang dibentuk dari beberapa lapisan (layer). Neural network yang sering digunakan meliputi neural network convolution dan recurrent. + +
+ +**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** + +⟶Arsitekture - kosakata pada aritekture neural network dijelaskan pada gambar dibawah ini: + +
+ +**5. [Input layer, hidden layer, output layer]** + +⟶[Layer masukan, layer hidden (layer antara layer masukan dan keluaran), layer keluaran] + +
+ +**6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** + +⟶Dengan menuliskan i sebagai layer ke-i dari network dan j sebagai hidden unit ke-j dari layer, kita mendapatkan + +
+ +**7. where we note w, b, z the weight, bias and output respectively.** + +⟶dimana w, b, z adalah weight, bias, dan keluaran neural network. + +
+ +**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** + +⟶Fungsi aktifasi- Fungsi aktfiasi digunakan setelah sebuah hidden unit agar model dapat memodelkan permasalahan non-linear. Berikut adalah fungsi aktifasi yang sering digunakan: + +
+ +**9. [Sigmoid, Tanh, ReLU, Leaky ReLU]** + +⟶[Sigmoid, Tanh, ReLU, Leaky ReLU] + +
+ +**10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** + +⟶Fungsi loss cross-entropy - Pada neural network, loss cross-entropy L(z,y) adalah fungsi loss yang sering digunakan dan didefinisikan sebagai berikut: + +
+ +**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** + +⟶Learning rate- Learning rate, sering dituliskan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam, sebuah method yang merubah learning rate secara adaptif. + +
+ +**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** + +⟶Backpropagation - Backpropagation adalah method untuk mengubah nilai weight pada neural network dengan mempertimbangkan perbedaan dari keluaran prediksi dan keluaran yang diinginkan. Turunan terhadap weight w dihitung menggunakan chain rule dan dapat diformulakan dengan: + +
+ +**13. As a result, the weight is updated as follows:** + +⟶Oleh karena itu, nilai weight diubah dengan formula sebagai berikut + +
+ +**14. Updating weights ― In a neural network, weights are updated as follows:** + +⟶Mengubah nilai weight - Pada neural network, nilai weight diubah dengan tahapan sebagai berikut: + +
+ +**15. Step 1: Take a batch of training data.** + +⟶Ambil sebuah batch (sample, contoh dari 100 training data ambil 50 data) dari training data. + +
+ +**16. Step 2: Perform forward propagation to obtain the corresponding loss.** + +⟶Lakukan perhitungan forward propagation dan hitung loss berdasarkan keluaran prediksi dan yang diinginkan. + +
+ +**17. Step 3: Backpropagate the loss to get the gradients.** + +⟶Lakukan perhitungan backpropagate dengan nilai loss untuk mendapatkan nilai gradien. + +
+ +**18. Step 4: Use the gradients to update the weights of the network.** + +⟶Ubah nilai weight berdasarkan nilai gradien. + +
+ +**19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** + +⟶Dropout - Dropout adalah sebuah teknik yang digunakan untuk mencegah overfitting pada saraf tiruan dengan men-drop out unit pada sebuah neural network. Pada pengaplikasiannya, neuron di drop dengan probabilitas p atau dipertahankan dengan probabilitas 1-p + +
+ +**20. Convolutional Neural Networks** + +⟶Convolutional Neural Network + +
+ +**21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** + +⟶Ketentuan layer convolutional - Dengan mendefinisikan W sebagai ukuran volume (dimensi) dari masukan, F sebagai jumlah neuron (yang diinginkan) pada layer convolutional, P sebagai jumlah zero padding (penambahan nilai zero pada masukan), maka jumlah neuron N yang sesuai dengan ukuran dimensi masukan adalah: + +
+ +**22. Batch normalization ― It is a step of hyperparameter γ,β that normalizes the batch {xi}. By noting μB,σ2B the mean and variance of that we want to correct to the batch, it is done as follows:** + +⟶ Normalisasi batch - Normalisasi batch adalah sebuah langkah untuk menormalisasi batch {xi}. Dengan mendefinisikan μB,σ2B sebagai nilai rata-rata dan variansi dari batch yang ingin kita normalisasi, hal tersebut dapat dilakukan dengan cara: + +
+ +**23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** + +⟶Batch normalisasi biasa ditempatkan setelah sebuah layer fully-connected atau convolutional dan sebelum sebuah non-linear layer yang bertujun untuk memungkinkannya penggunaan nilai learning rate yang lebih tinggi dan mengurangi ketergantungan model pada nilai inisialisasi parameter. + +
+ +**24. Recurrent Neural Networks** + +⟶Recurrent Neural Networks + +
+ +**25. Types of gates ― Here are the different types of gates that we encounter in a typical recurrent neural network:** + +⟶Tipe-tipe gerbang - Dibawah ini merupakan beberapa jenis gerbang yang biasa ditemui pada recurrent neural network: + +
+ +**26. [Input gate, forget gate, gate, output gate]** + +⟶[Gerbang masukan, gerbang lupa (untuk melupakan informasi), gerbang, gerbang keluaran] + +
+ +**27. [Write to cell or not?, Erase a cell or not?, How much to write to cell?, How much to reveal cell?]** + +⟶Menulis ke sel atau tidak?, Hapus sebuah sel atau tidak?, Berapa banyak penulisan ke sel?, Berapa banyak yang disampaikan ke sel?] + +
+ +**28. LSTM ― A long short-term memory (LSTM) network is a type of RNN model that avoids the vanishing gradient problem by adding 'forget' gates.** + +⟶LSTM - Long short-term memory (LSTM) network adalah sebuah tipe model dari RNN yang mencegah permasalahan vanishing gradien (nilai gradien menjadi 0) dengan menambahkan gerbang 'lupa': + +
+ +**29. Reinforcement Learning and Control** + +⟶Reinforcement Learning dan Kontrol + +
+ +**30. The goal of reinforcement learning is for an agent to learn how to evolve in an environment.** + +⟶Tujuan dari reinforcement learning adalah menjadikan sebuah agen (contoh: robot) dapat belajar untuk menyesuaikan diri terhadap lingkungan sekelilingnya. + +
+ +**31. Definitions** + +⟶Definisi-definisi + +
+ +**32. Markov decision processes ― A Markov decision process (MDP) is a 5-tuple (S,A,{Psa},γ,R) where:** + +⟶Markov decision processes- Markov decision process (MDP) adalah sebuah 5-tuple(S,A,{Psa},γ,R) dimana: + +
+ +**33. S is the set of states** + +⟶S adalah set dari state-state (tahap-tahap) + +
+ +**34. A is the set of actions** + +⟶A adalah set dari aksi-aksi + +
+ +**35. {Psa} are the state transition probabilities for s∈S and a∈A** + +⟶{Psa} adalah transisi probabilitas dari satu state ke state lainnya untuk s∈S and a∈A + +
+ +**36. γ∈[0,1[ is the discount factor** + +⟶γ∈[0,1[ adalah faktor diskon + +
+ +**37. R:S×A⟶R or R:S⟶R is the reward function that the algorithm wants to maximize** + +⟶R:S×A⟶R or R:S⟶R adalah fungsi reward (hadiah) yang algoritma ingin untuk maksimalkan nilai keluarannya + +
+ +**38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** + +⟶Kebijakan - sebuah kebijakan adalah sebuah fungsi π:S⟶A yang memetakan state-state ke aksi-aksi. + +
+ +**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** + +⟶Perlu diperhatikan: kita mengatakan bahwa kita mengeksekusi sebuah kebijakan π jika sebuah state s maka kita melakukan aksi a=π(s). + +
+ +**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** + +⟶Fungsi value - Untuk sebuah kebijakan π dan sebuah state s, kita mendefinisikan fungsi value Vπ sebagai berikut: + +
+ +**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** + +⟶Bellman equation - Persamaan optimal Bellman menandakan fungsi value Vπ∗ dari kebijakan yang optimal π∗: + +
+ +**42. Remark: we note that the optimal policy π∗ for a given state s is such that:** + +⟶Perlu diperhatikan: kita mendefinisikan bahwa kebijakan optimal π∗ untuk state yang diberikan sebagai: + +
+ +**43. Value iteration algorithm ― The value iteration algorithm is in two steps:** + +⟶Algoritma value iteration - Algoritma value iteration memiliki dua tahap: + +
+ +**44. 1) We initialize the value:** + +⟶Kita menginialisasi value + +
+ +**45. 2) We iterate the value based on the values before:** + +⟶Kita melakukan iterasi value berdasarkan value sebelumnya + +
+ +**46. Maximum likelihood estimate ― The maximum likelihood estimates for the state transition probabilities are as follows:** + +⟶Estimasi maksimum likelihood - Estimasi maksimum likelihood untuk probabilitas transisi antara state-state didefinisikan sebagai berikut: + +
+ +**47. times took action a in state s and got to s′** + +⟶Jumlah melakukan aksi a pada state s dan menuju state s' + +
+ +**48. times took action a in state s** + +⟶Jumlah melakukan aksi a pada state s + +
+ +**49. Q-learning ― Q-learning is a model-free estimation of Q, which is done as follows:** + +⟶Q-learning - Q-learning adalah teknik estimasi tanpa menggunakan model dari Q, yang diformulasikan sebagai berikut: + +
+ +**50. View PDF version on GitHub** + +⟶Lihat versi PDF pada GitHub + +
+ +**51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** + +⟶[Neural Network, Arsitektur, Fungsi-fungsi Aktifasi, Bakcpropagation, Dropout] + +
+ +**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** + +⟶[Convolutional Neural Network, Layer Convolutional, Normalisasi Batch] + +
+ +**53. [Recurrent Neural Networks, Gates, LSTM]** + +⟶[Recurrent Neural Network, Gerbang-gerbang, LSTM] + +
+ +**54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** + +⟶[Reinforcement learning, Markov decision processes, Iterasi Value/policy, Approximate dynamic programming, Policy search] From 3712acc5fbde057f5bd6c41d849880206344b405 Mon Sep 17 00:00:00 2001 From: Prasetia Utama Putra Date: Sat, 12 Oct 2019 10:10:28 +0900 Subject: [PATCH 2/5] Update cheatsheet-deep-learning.md Modify the translation according to the reviews --- id/cheatsheet-deep-learning.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/id/cheatsheet-deep-learning.md b/id/cheatsheet-deep-learning.md index 38ff5d834..5f917e1d5 100644 --- a/id/cheatsheet-deep-learning.md +++ b/id/cheatsheet-deep-learning.md @@ -6,19 +6,19 @@ **2. Neural Networks** -⟶Neural Network +⟶Jaringan Saraf
**3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** -⟶Neural network adalah sebuah model yang dibentuk dari beberapa lapisan (layer). Neural network yang sering digunakan meliputi neural network convolution dan recurrent. +⟶Jaringan Saraf adalah sebuah kelas model yang dibentuk dari beberapa lapisan (layer). Tipe-tipe jaringan ini meliputi neural network convolution dan recurrent.
**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** -⟶Arsitekture - kosakata pada aritekture neural network dijelaskan pada gambar dibawah ini: +⟶Arsitektur - Kosa kata pada aritekture neural network dijelaskan pada gambar di bawah ini:
@@ -42,7 +42,7 @@ **8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** -⟶Fungsi aktifasi- Fungsi aktfiasi digunakan setelah sebuah hidden unit agar model dapat memodelkan permasalahan non-linear. Berikut adalah fungsi aktifasi yang sering digunakan: +⟶Fungsi aktifasi- Fungsi aktifasi digunakan setelah sebuah hidden unit agar model dapat memodelkan permasalahan non-linear. Berikut adalah fungsi aktifasi yang sering digunakan:
From 152376ac866c1aaf8b85b09a6d11ecb1acc82536 Mon Sep 17 00:00:00 2001 From: Prasetia Utama Putra Date: Sat, 2 Nov 2019 12:08:15 +0900 Subject: [PATCH 3/5] Update according to the reviews --- id/cheatsheet-deep-learning.md | 32 ++++++++++++++++---------------- 1 file changed, 16 insertions(+), 16 deletions(-) diff --git a/id/cheatsheet-deep-learning.md b/id/cheatsheet-deep-learning.md index 5f917e1d5..4f9f1eb8d 100644 --- a/id/cheatsheet-deep-learning.md +++ b/id/cheatsheet-deep-learning.md @@ -12,13 +12,13 @@ **3. Neural networks are a class of models that are built with layers. Commonly used types of neural networks include convolutional and recurrent neural networks.** -⟶Jaringan Saraf adalah sebuah kelas model yang dibentuk dari beberapa lapisan (layer). Tipe-tipe jaringan ini meliputi neural network convolution dan recurrent. +⟶*Neural networks* adalah sebuah kelas model yang dibentuk dari beberapa lapisan. Tipe-tipe jaringan ini meliputi jaringan konvolusi dan *recurrent neural networks*.
**4. Architecture ― The vocabulary around neural networks architectures is described in the figure below:** -⟶Arsitektur - Kosa kata pada aritekture neural network dijelaskan pada gambar di bawah ini: +⟶Arsitektur ― Kosa kata seputar arsitektur jaringan saraf dijelaskan pada gambar di bawah ini:
@@ -30,19 +30,19 @@ **6. By noting i the ith layer of the network and j the jth hidden unit of the layer, we have:** -⟶Dengan menuliskan i sebagai layer ke-i dari network dan j sebagai hidden unit ke-j dari layer, kita mendapatkan +⟶Dengan menuliskan i sebagai lapisan ke-i dari network dan j sebagai hidden unit ke-j dari lapisan, kita mendapatkan:
**7. where we note w, b, z the weight, bias and output respectively.** -⟶dimana w, b, z adalah weight, bias, dan keluaran neural network. +⟶di mana kita menulis w, b, z sebagai secara berturut-turut bobot, simpangan, dan keluaran.
**8. Activation function ― Activation functions are used at the end of a hidden unit to introduce non-linear complexities to the model. Here are the most common ones:** -⟶Fungsi aktifasi- Fungsi aktifasi digunakan setelah sebuah hidden unit agar model dapat memodelkan permasalahan non-linear. Berikut adalah fungsi aktifasi yang sering digunakan: +⟶Fungsi aktivasi - Fungsi aktivasi digunakan oleh sebuah hidden unit akhir untuk mengenalkan kompleksitas non-linear kepada mode tersebut. Berikut ini adalah fungsi aktivasi yang sering digunakan:
@@ -54,25 +54,25 @@ **10. Cross-entropy loss ― In the context of neural networks, the cross-entropy loss L(z,y) is commonly used and is defined as follows:** -⟶Fungsi loss cross-entropy - Pada neural network, loss cross-entropy L(z,y) adalah fungsi loss yang sering digunakan dan didefinisikan sebagai berikut: +⟶*Cross-entropy loss* - Pada neural network, *cross-entropy loss* L(z,y) adalah fungsi loss yang umumnya digunakan dan didefinisikan sebagai berikut:
**11. Learning rate ― The learning rate, often noted α or sometimes η, indicates at which pace the weights get updated. This can be fixed or adaptively changed. The current most popular method is called Adam, which is a method that adapts the learning rate.** -⟶Learning rate- Learning rate, sering dituliskan sebagai α atau η, mendefinisikan seberapa cepat nilai weight diperbaharui. Learning rate bisa diset dengan nilai fix atau dirubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam, sebuah method yang merubah learning rate secara adaptif. +⟶*Learning rate* - *Learning rate*, sering dituliskan sebagai α atau η, menunjukkan seberapa cepat nilai *weight* dapat diperbaharui. *Learning rate* bisa dimanipulasi atau diubah secara adaptif. Metode yang paling terkenal saat ini adalah Adam, sebuah method yang mengubah *learning rate* secara adaptif.
**12. Backpropagation ― Backpropagation is a method to update the weights in the neural network by taking into account the actual output and the desired output. The derivative with respect to weight w is computed using chain rule and is of the following form:** -⟶Backpropagation - Backpropagation adalah method untuk mengubah nilai weight pada neural network dengan mempertimbangkan perbedaan dari keluaran prediksi dan keluaran yang diinginkan. Turunan terhadap weight w dihitung menggunakan chain rule dan dapat diformulakan dengan: +⟶*Backpropagation* - *Backpropagation* adalah sebuah metode untuk mengubah nilai *weight* pada *neural network* dengan mempertimbangkan perbedaan dari keluaran prediksi dan keluaran yang diinginkan. Turunan terhadap *weight* w dihitung menggunakan *chain rule* dan dapat diformulasikan dengan:
**13. As a result, the weight is updated as follows:** -⟶Oleh karena itu, nilai weight diubah dengan formula sebagai berikut +⟶Akibatnya, nilai *weight* diubah dengan formula sebagai berikut:
@@ -84,13 +84,13 @@ **15. Step 1: Take a batch of training data.** -⟶Ambil sebuah batch (sample, contoh dari 100 training data ambil 50 data) dari training data. +⟶Tahap 1: Ambil sebuah *batch* (sample, contoh dari 100 training data ambil 50 data) dari *training data*.
**16. Step 2: Perform forward propagation to obtain the corresponding loss.** -⟶Lakukan perhitungan forward propagation dan hitung loss berdasarkan keluaran prediksi dan yang diinginkan. +⟶Tahap 2: Lakukan perhitungan *forward propagation* untuk memperoleh data dari *loss* yang bersangkutan.
@@ -264,7 +264,7 @@ **45. 2) We iterate the value based on the values before:** -⟶Kita melakukan iterasi value berdasarkan value sebelumnya +⟶Kita melakukan *iterasi value* berdasarkan *value* sebelumnya:
@@ -276,7 +276,7 @@ **47. times took action a in state s and got to s′** -⟶Jumlah melakukan aksi a pada state s dan menuju state s' +⟶Masa melakukan aksi a pada *state* s dan menuju *state* s
@@ -300,13 +300,13 @@ **51. [Neural Networks, Architecture, Activation function, Backpropagation, Dropout]** -⟶[Neural Network, Arsitektur, Fungsi-fungsi Aktifasi, Bakcpropagation, Dropout] +⟶[*Neural Network*, Arsitektur, Fungsi-fungsi Aktivasi, *Backpropagation*, *Dropout*]
**52. [Convolutional Neural Networks, Convolutional layer, Batch normalization]** -⟶[Convolutional Neural Network, Layer Convolutional, Normalisasi Batch] +⟶[*Convolutional Neural Network*, Layer Konvolusi, *Batch normalization*]
@@ -318,4 +318,4 @@ **54. [Reinforcement learning, Markov decision processes, Value/policy iteration, Approximate dynamic programming, Policy search]** -⟶[Reinforcement learning, Markov decision processes, Iterasi Value/policy, Approximate dynamic programming, Policy search] +⟶[*Reinforcement learning*, *Markov decision processes*, Iterasi Value/kebijakan, *Approximate dynamic programming*, Pencarian kebijakan] From a789bcd58a8b434ff653cce60cb614a0ffe06840 Mon Sep 17 00:00:00 2001 From: Prasetia Utama Putra Date: Sat, 2 Nov 2019 12:13:26 +0900 Subject: [PATCH 4/5] Adding more updates according to the reviews --- id/cheatsheet-deep-learning.md | 12 ++++++------ 1 file changed, 6 insertions(+), 6 deletions(-) diff --git a/id/cheatsheet-deep-learning.md b/id/cheatsheet-deep-learning.md index 4f9f1eb8d..9adfbba69 100644 --- a/id/cheatsheet-deep-learning.md +++ b/id/cheatsheet-deep-learning.md @@ -120,7 +120,7 @@ **21. Convolutional layer requirement ― By noting W the input volume size, F the size of the convolutional layer neurons, P the amount of zero padding, then the number of neurons N that fit in a given volume is such that:** -⟶Ketentuan layer convolutional - Dengan mendefinisikan W sebagai ukuran volume (dimensi) dari masukan, F sebagai jumlah neuron (yang diinginkan) pada layer convolutional, P sebagai jumlah zero padding (penambahan nilai zero pada masukan), maka jumlah neuron N yang sesuai dengan ukuran dimensi masukan adalah: +⟶Ketentuan layer konvolusi - Dengan mendefinisikan W sebagai masukan dari ukuran volume (dimensi), F sebagai besaran neuron dari layer konvolusi, P sebagai jumlah *zero padding*, maka jumlah neuron N yang sesuai dengan ukuran dimensi masukan adalah:
@@ -168,7 +168,7 @@ **29. Reinforcement Learning and Control** -⟶Reinforcement Learning dan Kontrol +⟶*Reinforcement Learning* dan Kontrol
@@ -222,25 +222,25 @@ **38. Policy ― A policy π is a function π:S⟶A that maps states to actions.** -⟶Kebijakan - sebuah kebijakan adalah sebuah fungsi π:S⟶A yang memetakan state-state ke aksi-aksi. +⟶Kebijakan ― Sebuah kebijakan adalah sebuah fungsi π:S⟶A yang memetakan tahap-tahap ke aksi-aksi.
**39. Remark: we say that we execute a given policy π if given a state s we take the action a=π(s).** -⟶Perlu diperhatikan: kita mengatakan bahwa kita mengeksekusi sebuah kebijakan π jika sebuah state s maka kita melakukan aksi a=π(s). +⟶Catatan: kita mengatakan bahwa kita menjalankan sebuah kebijakan π jika diberikan sebuah *state* s maka kita mengambil tindakan a=π(s).
**40. Value function ― For a given policy π and a given state s, we define the value function Vπ as follows:** -⟶Fungsi value - Untuk sebuah kebijakan π dan sebuah state s, kita mendefinisikan fungsi value Vπ sebagai berikut: +⟶Fungsi *value* - Untuk sebuah kebijakan π dan sebuah state s, kita mendefinisikan fungsi *value* Vπ sebagai berikut:
**41. Bellman equation ― The optimal Bellman equations characterizes the value function Vπ∗ of the optimal policy π∗:** -⟶Bellman equation - Persamaan optimal Bellman menandakan fungsi value Vπ∗ dari kebijakan yang optimal π∗: +⟶Persamaan Bellman - Persamaan optimal Bellman bercirikan dengan fungsi *value* Vπ∗ dari kebijakan yang terbaik π∗:
From 2808c5026d38eec0b635a14f3dc4cf166e3298e8 Mon Sep 17 00:00:00 2001 From: Prasetia Utama Putra Date: Sat, 9 Nov 2019 10:08:54 +0900 Subject: [PATCH 5/5] Update according to the reviews --- id/cheatsheet-deep-learning.md | 10 +++++----- 1 file changed, 5 insertions(+), 5 deletions(-) diff --git a/id/cheatsheet-deep-learning.md b/id/cheatsheet-deep-learning.md index 9adfbba69..5423e6d1c 100644 --- a/id/cheatsheet-deep-learning.md +++ b/id/cheatsheet-deep-learning.md @@ -108,13 +108,13 @@ **19. Dropout ― Dropout is a technique meant at preventing overfitting the training data by dropping out units in a neural network. In practice, neurons are either dropped with probability p or kept with probability 1−p** -⟶Dropout - Dropout adalah sebuah teknik yang digunakan untuk mencegah overfitting pada saraf tiruan dengan men-drop out unit pada sebuah neural network. Pada pengaplikasiannya, neuron di drop dengan probabilitas p atau dipertahankan dengan probabilitas 1-p +⟶*Droput* - *Dropout* adalah sebuah teknik yang digunakan untuk mencegah *overfitting* pada saraf tiruan dengan memutus unit yang terdapat pada sebuah *neural network*. Dalam praktiknya, neuron dikurangi dengan probabilitas p atau dipertahankan dengan probabilitas 1-p
**20. Convolutional Neural Networks** -⟶Convolutional Neural Network +⟶*Convolutional Neural Network*
@@ -132,13 +132,13 @@ **23. It is usually done after a fully connected/convolutional layer and before a non-linearity layer and aims at allowing higher learning rates and reducing the strong dependence on initialization.** -⟶Batch normalisasi biasa ditempatkan setelah sebuah layer fully-connected atau convolutional dan sebelum sebuah non-linear layer yang bertujun untuk memungkinkannya penggunaan nilai learning rate yang lebih tinggi dan mengurangi ketergantungan model pada nilai inisialisasi parameter. +⟶Normalisasi *batch* - Normalisasi *batch* adalah sebuah langkah dari hiperparameter γ,β untuk menormalisasi *batch* {xi}. Dengan mendefinisikan μB,σ2B sebagai nilai rata-rata dan variansi dari *batch* yang ingin kita normalisasi, hal tersebut dapat dilakukan dengan cara:
**24. Recurrent Neural Networks** -⟶Recurrent Neural Networks +⟶*Recurrent Neural Networks*
@@ -258,7 +258,7 @@ **44. 1) We initialize the value:** -⟶Kita menginialisasi value +⟶Kita menginialisasi *value*