Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

translate FAQ #6

Merged
merged 7 commits into from
Apr 25, 2017
Merged

translate FAQ #6

merged 7 commits into from
Apr 25, 2017

Conversation

Ujitoko
Copy link

@Ujitoko Ujitoko commented Apr 19, 2017

ご指示いただきありがとうございます。
大変お手数おかけしました。
getting-started/faq/の翻訳です.

大きくは,以下の新たな3つの質問&回答を追加しました.
・What does "sample", "batch", "epoch" mean?
・How can I use HDF5 inputs with Keras?
・Where is the Keras configuration filed stored?

残りはeditorialな部分を修正しました.
よろしくお願いします.

@nzw0301
Copy link
Owner

nzw0301 commented Apr 20, 2017

どうもありがとうございます.確認いたしますので数日お待ち下さい.

- [Sequentialモデルから層を取り除くには?](#how-can-i-remove-a-layer-from-a-sequential-model)
- [Kerasで事前学習したモデルを使うには?](#how-can-i-use-pre-trained-models-in-keras)
- [KerasでHDF5ファイルを入力に使うには?](#how-can-i-use-hdf5-inputs-with-keras)
- [Kerasの設定ファイルの保存場所は?](#where-is-the-keras-configuration-filed-stored)
Copy link
Owner

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

2行目からここまで,リンクを本体と同じにすると参照できなくなります.

  • 以前のからあるものは以前のものに直してください
  • 新しく追加したものについては mkdocs serve で実際に生成されるページをもとにしてリンクを書いてください

@@ -120,11 +139,11 @@ model.load_weights('my_model_weights.h5')

---

### なぜtraining lossがtesting lossよりもずっと大きいのですか
### training lossがtesting lossよりもはるかに大きいのはなぜ
Copy link
Owner

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

この上にある例2つと文が1つが抜けていますので追加をお願いします.

@@ -156,7 +175,7 @@ layer_output = get_3rd_layer_output([X, 0])[0]
layer_output = get_3rd_layer_output([X, 1])[0]
```

その他の中間層の出力を取得する方法については,[functional API](/getting-started/functional-api-guide)を参照してください例えばMNISTに対してautoencoderを作成したとします:
その他の中間層の出力を取得する方法については,[functional API](/getting-started/functional-api-guide)を参照してください例えばMNISTに対してautoencoderを作成したとします:
Copy link
Owner

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

ここから下は削除されています

@nzw0301
Copy link
Owner

nzw0301 commented Apr 20, 2017

行に対してコメントができなかった箇所はこちらにかきます

- *例:* 一つの画像は畳み込みネットワークの一つの **sample** です
- *例:* 一つの音声ファイルは音声認識モデルのための一つの **sample** です
- **Batch**: *N* のsampleのまとまり。 **batch** 内のサンプルは独立して並列に処理されます。 訓練中は、batchの処理結果によりモデルが一回更新されます。
- 一般的に **batch** は、それぞれの入力のみの場合に比べて、入力データのばらつきをよく近似します。batchが大きいほど、その近似は精度良くなります。しかし、そのようなbatchの処理には時間がかかるにも関わらず更新が一度しかされません。推論(もしくは評価、予測)のためには、メモリ領域を超えなくて済む最大のbatchサイズを選ぶのをおすすめします。(なぜなら、batchが大きければ、通常は高速な評価や予測につながるからです)
Copy link
Owner

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

好みの問題かもしれませんが

精度良くなります

「精度が良くなります」でしょうか?

@Ujitoko
Copy link
Author

Ujitoko commented Apr 21, 2017

コメントありがとうございます.
コメントに基づき,修正いたしました.
また全体についても見直して表現を少し直している箇所があります.

@nzw0301 nzw0301 merged commit 9bbdd6d into nzw0301:keras-2 Apr 25, 2017
@nzw0301
Copy link
Owner

nzw0301 commented Apr 25, 2017

ありがとうございます!問題ありません

nzw0301 pushed a commit that referenced this pull request Jun 25, 2017
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

Successfully merging this pull request may close these issues.

2 participants