From 594d7a595baeee5b136cf8444ea8faafdb667074 Mon Sep 17 00:00:00 2001 From: wizardforcel <562826179@qq.com> Date: Thu, 8 Feb 2024 18:12:19 +0800 Subject: [PATCH] 2024-02-08 18:12:17 --- totrans/fund-dl_03.yaml | 27 +++++++++++++++++++++++++++ 1 file changed, 27 insertions(+) diff --git a/totrans/fund-dl_03.yaml b/totrans/fund-dl_03.yaml index d602bc3..c303e6e 100644 --- a/totrans/fund-dl_03.yaml +++ b/totrans/fund-dl_03.yaml @@ -441,15 +441,32 @@ id: totrans-41 prefs: [] type: TYPE_NORMAL + zh: 我们可以将我们对大脑中神经元的功能理解转化为我们可以在计算机上表示的人工模型。这样的模型在[图3-7](#schematic_for_a_neuron)中描述,利用了1943年Warren + S. McCulloch和Walter H. Pitts首次开创的方法。就像生物神经元一样,我们的人工神经元接受一些输入,x + 1 , x 2 , ... + , x n,每个输入都乘以特定的权重,w + 1 , w 2 , ... + , w n。这些加权输入像以前一样相加,产生神经元的对数几率,z = + i=0 n w + i x i。在许多情况下,对数几率还包括一个偏置,这是一个常数(图中未显示)。然后将对数几率通过函数f传递,产生输出y = f ( z + )。这个输出可以传递给其他神经元。 - en: '![ ](Images/fdl2_0307.png)' id: totrans-42 prefs: [] type: TYPE_IMG + zh: '![ ](Images/fdl2_0307.png)' - en: Figure 3-7\. Schematic for a neuron in an artificial neural net id: totrans-43 prefs: - PREF_H6 type: TYPE_NORMAL + zh: 图3-7. 人工神经网络中的神经元示意图 - en: We’ll conclude our mathematical discussion of the artificial neuron by re-expressing its functionality in vector form. Let’s reformulate the inputs as a vector **x** = [x[1] x[2] … x[n]] and the weights of the neuron as **w** = [w[1] w[2] … w[n]]. @@ -465,11 +482,17 @@ id: totrans-44 prefs: [] type: TYPE_NORMAL + zh: 我们将通过将其功能重新表达为向量形式来结束我们对人工神经元的数学讨论。让我们将输入重新表述为一个向量**x** = [x[1] x[2] … x[n]],神经元的权重为**w** + = [w[1] w[2] … w[n]]。然后我们可以将神经元的输出重新表达为 y = f + 𝐱 · 𝐰 + + b,其中b是偏置项。我们可以通过执行输入和权重向量的点积,加上偏置项产生对数几率,然后应用变换函数来计算输出。虽然这看起来像是一个微不足道的重新表述,但将神经元视为一系列向量操作对我们后面在本书中如何实现它们的软件将至关重要。 - en: Expressing Linear Perceptrons as Neurons id: totrans-45 prefs: - PREF_H1 type: TYPE_NORMAL + zh: 将线性感知器表达为神经元 - en: 'In [“The Mechanics of Machine Learning”](#mech_machine_learn), we talked about using machine learning models to capture the relationship between success on exams and time spent studying and sleeping. To tackle this problem, we constructed a @@ -478,6 +501,7 @@ id: totrans-46 prefs: [] type: TYPE_NORMAL + zh: 在[“机器学习的机制”](#mech_machine_learn)中,我们谈到使用机器学习模型来捕捉考试成绩与学习和睡眠时间之间的关系。为了解决这个问题,我们构建了一个线性感知器分类器,将笛卡尔坐标平面分成两半: - en: f @@ -540,10 +565,12 @@ id: totrans-50 prefs: [] type: TYPE_NORMAL + zh: 很容易证明我们的线性感知器和神经元模型是完全等价的。而且一般来说,很容易证明单个神经元比线性感知器更具表现力。每个线性感知器都可以表示为一个单个神经元,但单个神经元也可以表示出任何线性感知器无法表示的模型。 - en: '![ ](Images/fdl2_0308.png)' id: totrans-51 prefs: [] type: TYPE_IMG + zh: '![ ](Images/fdl2_0308.png)' - en: Figure 3-8\. Expressing our exam performance perceptron as a neuron id: totrans-52 prefs: