diff --git a/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-aws-permissions-policies.adoc b/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-aws-permissions-policies.adoc index ce574893e..19f243b23 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-aws-permissions-policies.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-aws-permissions-policies.adoc @@ -16,7 +16,7 @@ AWSリソースへのアクセスを提供するために必要な権限を持 この記事には、新しいIAMロールに必要なサンプルIAMポリシーが含まれています。 -これらのポリシーは、**Security & Identity**>**Identity & Access Management**>**Create Policy**で設定します。詳細な手順については、 link:https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_job-functions_create-policies.html[「ロールの作成とポリシーのアタッチ (コンソール) - AWS Identity and Access Management」]を参照してください。 +これらのポリシーは、 **Security & Identity** > **Identity & Access Management** > **Create Policy**で設定します。詳細な手順については、 link:https://docs.aws.amazon.com/IAM/latest/UserGuide/access_policies_job-functions_create-policies.html[「ロールの作成とポリシーのアタッチ (コンソール) - AWS Identity and Access Management」] を参照してください。 === workspaces-with-iam-role-permissions.json @@ -266,7 +266,7 @@ Teradata AI Unlimitedを使用すると、コンテナ、ポッド、または 以下の推奨される永続ボリューム フローでは、ボリュームが再マウントされ、データが保持されます。 -1. `UsePersistentVolume`セットを**New**、`PersistentVolumeDeletionPolicy`セットを**Retain**として、新しいデプロイメントを作成する。 +1. `UsePersistentVolume` を **New** として、`PersistentVolumeDeletionPolicy` を **Retain**として設定して、新しいデプロイメントを作成する。 2. スタック出力では、将来使用するためにvolume-idをメモする。 3. インスタンスが終了するまで、インスタンスを構成して使用する。 4. 次回のデプロイでは、以下の設定を使用します。 diff --git a/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-magic-reference.adoc b/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-magic-reference.adoc index 55b33a0cb..3bafe3c70 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-magic-reference.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/ai-unlimited-magic-reference.adoc @@ -28,7 +28,7 @@ AI Unlimited JupyterLab は、既存の Teradata SQL Kernel マジック コマ * host: エンジン サービスの名前または IP アドレス。 -* apikey: ワークスペース サービス **Profile**ページの API キー値。 +* apikey: ワークスペース サービスの **Profile** ページからの API キー値。 * [オプション] withTLS: False (F) の場合、デフォルトのクライアント サーバー通信では TLS が使用されません。 @@ -40,7 +40,7 @@ Workspace configured for host= == %project_create -**説明**:新しいプロジェクトを作成する。このコマンドは、GitHubアカウントにプロジェクト名を持つ新しいリポジトリも作成されます。設定は**engine.yml**ファイルに保存されます。 +**説明**:新しいプロジェクトを作成する。このコマンドは、GitHubアカウントにプロジェクト名を持つ新しいリポジトリも作成されます。設定は **engine.yml** ファイルに保存されます。 **使用方法**: @@ -108,8 +108,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.project.list.png[プロ **説明**: オブジェクト ストア認証情報を保存するための認証オブジェクトを作成する。 -エンジンをデプロイする前に、認証オブジェクトを作成する必要があります。認証の詳細は保持され、プロジェクトの再デプロイ時に組み込まれます。オプションで、エンジンのデプロイ後に `CREATE AUTHORIZATION`の SQL コマンドを使用して認証を手動で作成できます。この場合、認証の詳細は保持されません。 - +エンジンをデプロイする前に、認証オブジェクトを作成する必要があります。認証の詳細は保持され、プロジェクトの再デプロイ時に組み込まれます。オプションで、エンジンのデプロイ後に `CREATE AUTHORIZATION` の SQL コマンドを使用して認証を手動で作成できます。この場合、認証の詳細は保持されません。 **使用方法**: [source, bash, id="magic_auth_create", role="content-editable emits-gtm-events"] diff --git a/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-aws-cloudformation.adoc b/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-aws-cloudformation.adoc index 729e237c0..c2f0f2afe 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-aws-cloudformation.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-aws-cloudformation.adoc @@ -27,7 +27,7 @@ AWS CloudFormation テンプレートには、カスタマイズできる設定 === 始める前に -ターミナル ウィンドウを開き、 link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws[Teradata AI Unlimited GitHub リポジトリ]のクローンを作成します。このリポジトリには、ワークスペース サービスと JupyterLab をデプロイするためのサンプル CloudFormation テンプレートが含まれています。 +ターミナル ウィンドウを開き、 link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws[Teradata AI Unlimited GitHub リポジトリ] のクローンを作成します。このリポジトリには、ワークスペース サービスと JupyterLab をデプロイするためのサンプル CloudFormation テンプレートが含まれています。 [source, bash, id="clone_ai_unlimited_repo", role="content-editable emits-gtm-events"] ---- @@ -39,7 +39,7 @@ git clone https://github.com/Teradata/ai-unlimited 1. AWS アカウントをまだお持ちでない場合は、画面上の指示に従って、link:https://aws.amazon.com[https://aws.amazon.com]でアカウントを作成します。 2. ワークスペース サービスをデプロイするアカウントに、IAM ロールまたは IAM ポリシーを作成するための十分な IAM アクセス権があることを確認してます。アカウントに必要なアクセス権がない場合は、組織の管理者に問い合わせてください。 link:ai-unlimited-aws-permissions-policies.html[カスタム権限とポリシーを使用してAWSのアクセスと権限を制御する] を参照してください。 3. ナビゲーション バーのリージョン セレクターを使用して、Teradata AI Unlimited ワークスペース サービスをデプロイする AWS リージョンを選択します。 -4. ワークスペース サービス インスタンスの起動後に SSH を使用して安全に接続するためのキー ペアを生成します。link:https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-key-pairs.html[Amazon EC2キーペアとLinuxインスタンス]を参照してください。 +4. ワークスペース サービス インスタンスの起動後に SSH を使用して安全に接続するためのキー ペアを生成します。 link:https://docs.aws.amazon.com/AWSEC2/latest/UserGuide/ec2-key-pairs.html[Amazon EC2キーペアとLinuxインスタンス] を参照してください。 + NOTE: あるいは、AWS Session Manager を使用してワークスペース サービス インスタンスに接続することもできます。その場合、session-manager.json ポリシーを IAM ロールに付与する必要があります。 link:ai-unlimited-aws-permissions-policies.html[カスタム権限とポリシーを使用してAWSのアクセスと権限を制御する] を参照してください。ホスト OS へのアクセスが必要ない場合は、これらの接続方法のいずれも使用しないことを選択できます。 @@ -51,7 +51,7 @@ NOTE: あるいは、AWS Session Manager を使用してワークスペース サブスクライブするには: 1. AWSアカウントにログオンする。 -2. Teradata AI UnlimitedのAWSマーケットプレイスページを開き、**Continue**を選択する。 +2. Teradata AI UnlimitedのAWSマーケットプレイスページを開き、**Continue** を選択する。 3. エンジンイメージの利用規約を確認し、同意する。 + @@ -64,9 +64,9 @@ NOTE: あるいは、AWS Session Manager を使用してワークスペース === ステップ3: AWSコンソールからワークスペースサービスとJupyterLabをデプロイする 1. AWSコンソールでAWSアカウントにサインオンする。 -2. ナビゲーションバーの右上隅に表示される**AWSリージョン**を確認し、必要に応じて変更します。Teradataでは、プライマリ作業場所に最も近いリージョンを選択することをお薦めする。 -3. **CloudFormation**>**Create Stack**に移動します。 **Create Stack** を選択し、 **With new resources (standard)** を選択します。 -4. **テンプレートの準備ができました**を選択し、Teradata AI Unlimited GitHub リポジトリからダウンロードしたテンプレート ファイルの 1 つをアップロードします。 +2. ナビゲーションバーの右上隅に表示される **AWSリージョン** を確認し、必要に応じて変更します。Teradataでは、プライマリ作業場所に最も近いリージョンを選択することをお薦めする。 +3. **CloudFormation** > **Create Stack** に移動します。 **Create Stack** を選択し、 **With new resources (standard)** を選択します。 +4. **テンプレートの準備ができました** を選択し、Teradata AI Unlimited GitHub リポジトリからダウンロードしたテンプレート ファイルの 1 つをアップロードします。 + * link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws#workspaces-template[Workspaces テンプレート]: systemd によって制御されるコンテナー内で実行されるワークスペースを含む単一のインスタンスをデプロイします。 @@ -80,7 +80,8 @@ NOTE: あるいは、AWS Session Manager を使用してワークスペース ** link:https://github.com/Teradata/ai-unlimited/blob/develop/deployments/aws/parameters/all-in-one.json[parameters/all-in-one.json] パラメータ ファイル + このテンプレートを使用している場合は、埋め込み JupyterLab サービスを使用することも、外部 JupyterLab インスタンスに接続することもできます。埋め込み JupyterLab サービスに接続するときは、JupyterLab Notebookで適切な接続アドレス (例えば、127.0.0.1) を設定する必要があります。また、外部クライアントの場合は、適切なパブリック/プライベート IP または DNS 名を設定する必要があります。 -5. テンプレートのパラメータを確認します。入力が必要なパラメータの値を指定します。その他のすべてのパラメータについては、デフォルト設定を確認し、必要に応じてカスタマイズします。パラメータの確認とカスタマイズが終了したら、**Next**を選択します。 +5. テンプレートのパラメータを確認します。入力が必要なパラメータの値を指定します。その他のすべてのパラメータについては、デフォルト設定を確認し、必要に応じてカスタマイズします。パラメータの確認とカスタマイズが終了したら、**Next** を選択します。 + + 以下のテーブルでは、パラメータがカテゴリ別にリストされています。 + @@ -109,7 +110,7 @@ NOTE: あるいは、AWS Session Manager を使用してワークスペース | |IamRole -|CloudFormationが新しいIAMロールを作成するか、既存のロールを使用するかを指定します。 +|インスタンスに割り当てるIAMロールの名前。既存のIAMロールまたは 新しく作成されたIAMロールのいずれか。 |デフォルトでは必須 |New |サポートされているオプションは以下のとおりです: NewまたはExisting @@ -286,17 +287,17 @@ IMPORTANT: この値を変更すると、スタックが破損する可能性が + NOTE: Workspace サービスをデプロイしているアカウントに、IAM ロールまたは IAM ポリシーを作成するための十分な IAM アクセス権がない場合は、クラウド管理者に問い合わせてください。 -6. **オプション** ページでは、スタック内のリソースのタグ (キーと値のペア) の指定、アクセス権の設定、スタック障害オプションの設定、および詳細オプションの設定を行うことができます。終了したら、**Next**を選択します。 +6. **オプション** ページでは、スタック内のリソースのタグ (キーと値のペア) の指定、アクセス権の設定、スタック障害オプションの設定、および詳細オプションの設定を行うことができます。終了したら、**Next** を選択します。 7. **Review**ページで、テンプレート設定を確認します。[Capabilities]で、テンプレートがIAMリソースを作成することを確認するチェックボックスをオンにします。 8. **Create**を選択してstackをデプロイします。 9. スタックのステータスを監視します。ステータスが`CREATE_COMPLETE`の場合、Teradata AI Unlimitedワークスペースサービスの準備が整っています。 -10。スタックの**Outputs**タブに表示されるURLを使用して、作成されたリソースを表示します。 +10. スタックの **Outputs** タブに表示されるURLを使用して、作成されたリソースを表示します。 === ステップ4:ワークスペースサービスの設定とセットアップ -link:https://quickstarts.teradata.com/ai-unlimited/install-ai-unlimited-workspaces-docker.html#_configure_and_set_up_workspace_service[ワークスペースサービスの設定とセットアップ]参照してください。 +link:https://quickstarts.teradata.com/ai-unlimited/install-ai-unlimited-workspaces-docker.html#_configure_and_set_up_workspace_service[ワークスペースサービスの設定とセットアップ] を参照してください。 -NOTE: ワークスペース サービスのみをデプロイした場合は、ワークロードを実行する前にインターフェースをデプロイする必要があります。インターフェースをDocker上にローカルにデプロイするには、 link:install-ai-unlimited-interface-docker.html[Dockerを使用した Teradata AI Unlimited インターフェースのデプロイ]を参照してください。 link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws#jupyter-template[Jupyter テンプレート] を使用して、systemd によって制御されるコンテナ内で実行される JupyterLab を持つ単一のインスタンスをデプロイすることもできます。 +NOTE: ワークスペース サービスのみをデプロイした場合は、ワークロードを実行する前にインターフェースをデプロイする必要があります。インターフェースをDocker上にローカルにデプロイするには、 link:install-ai-unlimited-interface-docker.html[Dockerを使用した Teradata AI Unlimited インターフェースのデプロイ] を参照してください。 link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws#jupyter-template[Jupyter テンプレート] を使用して、systemd によって制御されるコンテナ内で実行される JupyterLab を持つ単一のインスタンスをデプロイすることもできます。 Teradata AI Unlimited の準備が整いました。 diff --git a/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-awscli-cloudformation.adoc b/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-awscli-cloudformation.adoc index a42ea37c2..ab5ae22f8 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-awscli-cloudformation.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/deploy-ai-unlimited-awscli-cloudformation.adoc @@ -12,7 +12,7 @@ IMPORTANT: この製品はプレビュー版であり、変更される可能性 == 概要 -AWS CLIから`aws cloudformation create-stack`または`aws cloudformation deploy`コマンドを使用してスタックをデプロイできる。このセクションの例では、create-stackコマンドを使用している。 `create-stack` コマンドと `deploy` コマンドの構文の違いについては 、link:https://docs.aws.amazon.com/cli/latest/reference/cloudformation/#cli-aws-cloudformation[AWS CLI コマンド リファレンス]ドキュメントを参照してください。 +AWS CLIから`aws cloudformation create-stack`または`aws cloudformation deploy`コマンドを使用してスタックをデプロイできる。このセクションの例では、create-stackコマンドを使用している。 `create-stack` コマンドと `deploy` コマンドの構文の違いについては 、 link:https://docs.aws.amazon.com/cli/latest/reference/cloudformation/#cli-aws-cloudformation[AWS CLI コマンド リファレンス]ドキュメントを参照してください。 == 始める前に @@ -20,7 +20,7 @@ AWS CLIから`aws cloudformation create-stack`または`aws cloudformation deplo * 以下を確認します。 ** 必須の AWS 認証情報。 ** リソースを作成および管理するために必要な IAM アクセス権。必要なアクセス権がない場合は、組織管理者に問い合わせて、指定されたすべてのロールを作成してください。 -** 必要なパラメータファイルとCloudFormationテンプレート。ファイルはlink:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws[AI Unlimited GitHubリポジトリ]からダウンロードできます。 +** 必要なパラメータファイルとCloudFormationテンプレート。ファイルは link:https://github.com/Teradata/ai-unlimited/tree/develop/deployments/aws[AI Unlimited GitHubリポジトリ] からダウンロードできます。 == スタックを作成する AWS CLI で以下のコマンドを実行します。 diff --git a/modules/ROOT/pages/ja/ai-unlimited/getting-started-with-ai-unlimited.adoc b/modules/ROOT/pages/ja/ai-unlimited/getting-started-with-ai-unlimited.adoc index 84eb584c0..3844656d8 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/getting-started-with-ai-unlimited.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/getting-started-with-ai-unlimited.adoc @@ -17,7 +17,7 @@ Teradata AI Unlimited は、以下の構成要素で構成されています。 * **ワークスペースサービス**: Teradata AI Unlimited の自動化とデプロイを制御および管理するオーケストレーション サービス。また、データ関連プロジェクトの実行時にシームレスなユーザー エクスペリエンスを提供する統合構成要素も制御します。ワークスペースサービスには、ユーザーを承認し、CSP 統合の選択を定義するために使用できる Web ベースの UI が含まれています。 -* **インターフェース**: データ プロジェクトを作成して実行し、Teradata システムに接続し、データを視覚化するための環境。JupyterLabまたはワークスペースクライアント(workspacectl)のいずれかを使用できます。 +* **インターフェース**: データ プロジェクトを作成して実行し、Teradata システムに接続し、データを視覚化するための環境。JupyterLabまたはワークスペースクライアント(workspacectl)のいずれかを使用できます。 * **エンジン**: データ サイエンスおよび分析ワークロードの実行に使用できる、フルマネージドの計算リソース。 @@ -30,7 +30,7 @@ Teradata AI Unlimited は、以下の構成要素で構成されています。 * VPC 上の同じインスタンス上のワークスペース サービスと JupyterLab * Network Load Balancer の背後にあるワークスペースサービスと JupyterLab -開発環境またはテスト環境の場合、Dockerを使用してワークスペース サービスと JupyterLab をデプロイできます。link:install-ai-unlimited-workspaces-docker.html[Dockerを使用した Teradata AI Unlimited Workspaceサービスのデプロイとセットアップ] を参照してください。クラウド インフラストラクチャにアクセスできるエンタープライズ ユーザーの場合は、ワークスペース サービスと JupyterLab を VPC にデプロイできます。link:deploy-ai-unlimited-aws-cloudformation.html[AWS CloudFormation テンプレートを使用して Teradata AI Unlimited Workspace サービスとインターフェースをデプロイする]とAzure を使用して 「Teradata AI Unlimited をデプロイ」(近日公開)を参照してください。 +開発環境またはテスト環境の場合、Dockerを使用してワークスペース サービスと JupyterLab をデプロイできます。link:install-ai-unlimited-workspaces-docker.html[Dockerを使用した Teradata AI Unlimited Workspaceサービスのデプロイとセットアップ] を参照してください。クラウド インフラストラクチャにアクセスできるエンタープライズ ユーザーの場合は、ワークスペース サービスと JupyterLab を VPC にデプロイできます。link:deploy-ai-unlimited-aws-cloudformation.html[AWS CloudFormation テンプレートを使用して Teradata AI Unlimited Workspace サービスとインターフェースをデプロイする] と「Azure を使用してTeradata AI Unlimited をデプロイする方法」(近日公開)を参照してください。 == 次のステップ diff --git a/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-interface-docker.adoc b/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-interface-docker.adoc index 392bd32f4..086d3863e 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-interface-docker.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-interface-docker.adoc @@ -22,7 +22,7 @@ JupyterLabは、次の手法でデプロイできます。 == Docker Engineを使用した JupyterLab のデプロイ -1. link:https://hub.docker.com/r/teradata/ai-unlimited-jupyter[https://hub.docker.com/r/teradata/ai-unlimited-jupyter]にある DockerHub からDockerイメージをプルします。 +1. link:https://hub.docker.com/r/teradata/ai-unlimited-jupyter[https://hub.docker.com/r/teradata/ai-unlimited-jupyter] にある DockerHub からDockerイメージをプルします。 2. `JUPYTER_HOME` 変数を設定したら、Dockerイメージを実行します。 + @@ -39,7 +39,7 @@ docker run -detach \ ---- このコマンドは、JupyterLab コンテナをダウンロードして起動し、それにアクセスするために必要なポートを公開します。 -URLhttp://localhost:8888 を使用して JupyterLab に接続し、プロンプトが表示されたらトークンを入力します。詳細な手順については、 link:https://docs.teradata.com/r/Teradata-VantageTM-Modules-for-Jupyter-Installation-Guide/Teradata-Vantage-Modules-for-Jupyter/Teradata-Vantage-Modules-for-Jupyter[「Teradata Vantage™ Modules for Jupyter インストール ガイド」] または link:https://quickstarts.teradata.com/jupyter.html[「Jupyter Notebook から Vantage を使用する」]を参照してください。 +URL: http://localhost:8888 を使用して JupyterLab に接続し、プロンプトが表示されたらトークンを入力します。詳細な手順については、 link:https://docs.teradata.com/r/Teradata-VantageTM-Modules-for-Jupyter-Installation-Guide/Teradata-Vantage-Modules-for-Jupyter/Teradata-Vantage-Modules-for-Jupyter[「Teradata Vantage™ Modules for Jupyter インストール ガイド」] または link:https://quickstarts.teradata.com/jupyter.html[「Jupyter Notebook から Vantage を使用する」] を参照してください。 == Docker Composeを使用した JupyterLab のデプロイ @@ -48,7 +48,7 @@ Docker Compose を使用すると、Dockerベースの JupyterLab インスト 1. Docker Composeをインストールします。link:https://docs.docker.com/compose/install/[https://docs.docker.com/compose/install/] を参照してください。 -2. **jupyter.yml**ファイルを作成します。 +2. **jupyter.yml** ファイル を作成します。 + [source, bash, id="docker_compose_jupyter", role="content-editable emits-gtm-events"] ---- @@ -76,14 +76,14 @@ networks: ---- -3. **jupyter.yml**ファイルがあるディレクトリに移動し、JupyterLabを起動します。 +3. **jupyter.yml** ファイルがあるディレクトリに移動し、JupyterLabを起動します。 + [source, bash, id="docker_compose_jupyter_up", role="content-editable emits-gtm-events"] ---- docker compose -f jupyter.yml up ---- + -JupyterLabサーバーが初期化されて起動されると、URL: http://localhost:8888を使用してJupyterLabに接続し、プロンプトが表示されたらトークンを入力します。詳細な手順については、 link:https://docs.teradata.com/r/Teradata-VantageTM-Modules-for-Jupyter-Installation-Guide/Teradata-Vantage-Modules-for-Jupyter/Teradata-Vantage-Modules-for-Jupyter[「Teradata Vantage™ Modules for Jupyter インストール ガイド」] または link:https://quickstarts.teradata.com/jupyter.html[「Jupyter Notebook から Vantage を使用する」]を参照してください。 +JupyterLabサーバーが初期化されて起動されると、URL: http://localhost:8888を使用してJupyterLabに接続し、プロンプトが表示されたらトークンを入力します。詳細な手順については、 link:https://docs.teradata.com/r/Teradata-VantageTM-Modules-for-Jupyter-Installation-Guide/Teradata-Vantage-Modules-for-Jupyter/Teradata-Vantage-Modules-for-Jupyter[「Teradata Vantage™ Modules for Jupyter インストール ガイド」] または link:https://quickstarts.teradata.com/jupyter.html[「Jupyter Notebook から Vantage を使用する」] を参照してください。 おめでとうございます!これで、Teradata AI Unlimitedを使用するための設定は完了しました。 diff --git a/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-workspaces-docker.adoc b/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-workspaces-docker.adoc index 4dcf602a4..1603fd806 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-workspaces-docker.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/install-ai-unlimited-workspaces-docker.adoc @@ -19,7 +19,7 @@ IMPORTANT: この製品はプレビュー版であり、変更される可能性 * <<_deploy_workspace_service_using_docker_engine,Docker Engine>> * <<_deploy_workspace_service_using_docker_compose, Docker Compose>> -Teradata AI Unlimitedをワークスペース クライアントで使用するには、link:using-ai-unlimited-workspace-cli.html[Workspace Client で Teradata AI Unlimited を使用する]を参照してください。 +Teradata AI Unlimitedをワークスペース クライアントで使用するには、link:using-ai-unlimited-workspace-cli.html[Workspace Client で Teradata AI Unlimited を使用する] を参照してください。 == 始める前に @@ -34,7 +34,7 @@ Teradata AI Unlimitedをワークスペース クライアントで使用する AWS:: + -- -link:https://aws.amazon.com/free/[https://aws.amazon.com/free/]で AWS 無料利用枠アカウントにサインアップします。AWS CLI を設定するには、「 link:https://docs.aws.amazon.com/cli/latest/userguide/getting-started-quickstart.html[https://docs.aws.amazon.com/cli/latest/userguide/getting-started-quickstart.html]」を参照してください。 +link:https://aws.amazon.com/free/[https://aws.amazon.com/free/] で AWS 無料利用枠アカウントにサインアップします。AWS CLI を設定するには、「 link:https://docs.aws.amazon.com/cli/latest/userguide/getting-started-quickstart.html[https://docs.aws.amazon.com/cli/latest/userguide/getting-started-quickstart.html]」を参照してください。 -- Azure:: @@ -43,14 +43,13 @@ Azure:: link:https://azure.microsoft.com/en-us/free[https://azure.microsoft.com/en-us/free]で Azure の無料アカウントにサインアップします。Azure CLI をインストールし、ワークスペース サービスを実行しているマシンに信頼証明を構成します。link:https://learn.microsoft.com/en-us/cli/azure/get-started-with-azure-cli[https://learn.microsoft.com/en-us/cli/azure/get-started-with-azure-cli] を参照してください。 -- ==== - * Docker: Dockerをダウンロードしてインストールするには、 link:https://docs.docker.com/docker-for-windows/install/[https://docs.docker.com/docker-for-windows/install/]を参照してください。 == Dockerイメージをロードして環境を準備する Dockerイメージは、単一のコンテナ内で必要なサービスを実行するワークスペース サービスのモノリシック イメージです。 - link:https://hub.docker.com/r/teradata/ai-unlimited-workspaces[Docker Hub]から Dockerイメージをプルします。 + link:https://hub.docker.com/r/teradata/ai-unlimited-workspaces[Docker Hub] から Dockerイメージをプルします。 [source, bash, id="docker_pull", role="content-editable emits-gtm-events"] ---- @@ -65,11 +64,10 @@ docker pull teradata/ai-unlimited-workspaces + link:https://docs.aws.amazon.com/sdkref/latest/guide/environment-variables.html[環境変数] を参照してください。 -** Azure:`ARM_SUBSCRIPTION_ID`、`ARM_CLIENT_ID`、および `ARM_CLIENT_SECRET` +** Azure: `ARM_SUBSCRIPTION_ID`、`ARM_CLIENT_ID`、および `ARM_CLIENT_SECRET` + -Azure CLIを使用した環境変数の取得については、link:https://github.com/paulbouwer/terraform-azure-quickstarts-samples/blob/master/README.md#azure-authentication[Azure認証]を参照してください。 - -* 環境変数`WORKSPACES_HOME`を、構成ファイルとデータファイルがあるディレクトリに設定します。ディレクトリが存在し、適切なアクセス権が付与されていることを確認してください。`WORKSPACES_HOME`を設定しない場合、デフォルトの場所は**./volumes/workspaces**です。 +Azure CLIを使用した環境変数の取得については、link:https://github.com/paulbouwer/terraform-azure-quickstarts-samples/blob/master/README.md#azure-authentication[Azure認証] を参照してください。 +* 環境変数 `WORKSPACES_HOME` を、構成ファイルとデータファイルがあるディレクトリに設定します。ディレクトリが存在し、適切なアクセス権が付与されていることを確認してください。`WORKSPACES_HOME` を設定しない場合、デフォルトの場所は **./volumes/workspaces** です。 + [cols="1,1,1"] |=== @@ -81,13 +79,13 @@ Azure CLIを使用した環境変数の取得については、link:https://gith |$WORKSPACES_HOME/tls |/etc/td/tls -|証明書ファイルの保存 +|証明書ファイルの保存する |=== == Docker Engineを使用してワークスペース サービスをデプロイする - `WORKSPACES_HOME` 変数を設定したら、Dockerイメージを実行します。 + `WORKSPACES_HOME` 変数を設定したら、Dockerイメージを実行する。 NOTE: 要件に基づいてディレクトリを変更します。 @@ -114,9 +112,9 @@ Docker Compose を使用すると、Docker ベースのワークスペース サ 1. Docker Composeをインストールします。link:https://docs.docker.com/compose/install/[https://docs.docker.com/compose/install/] を参照してください。 -2. **workspaces.yml**ファイルを作成します。 +2. **workspaces.yml** ファイルを作成します。 + -NOTE: 以下の例では、ローカル ボリュームを使用して CSP 信頼証明を保存します。CSP 環境変数を含む別の YAML ファイルを作成し、Docker Compose ファイルを実行できます。他のオプションについては、 link:https://github.com/Teradata/ai-unlimited/blob/develop/deployments/docker/README.md[「AI Unlimited GitHub: Docker Compose を使用して AI Unlimited をインストールする」]を参照してください。 +NOTE: 以下の例では、ローカル ボリュームを使用して CSP 信頼証明を保存します。CSP 環境変数を含む別の YAML ファイルを作成し、Docker Compose ファイルを実行できます。他のオプションについては、 link:https://github.com/Teradata/ai-unlimited/blob/develop/deployments/docker/README.md[「AI Unlimited GitHub: Docker Compose を使用して AI Unlimited をインストールする」] を参照してください。 + [tabs] @@ -186,7 +184,7 @@ services: -- ==== -3. **workspaces.yml**ファイルが配置されているディレクトリに移動し、ワークスペース サービスを開始します。 +3. **workspaces.yml** ファイルが配置されているディレクトリに移動し、ワークスペース サービスを開始します。 + [source, bash, id="docker_compose_run", role="content-editable emits-gtm-events"] ---- @@ -197,19 +195,18 @@ docker compose -f workspaces.yaml == ワークスペースサービスの設定とセットアップ -ワークスペース サービスは、GitHub OAuth アプリを使用してユーザーを承認し、プロジェクトの状態を管理します。ワークスペース サービスにプロジェクト インスタンス構成を保存する権限を与えるには、GitHub OAuth アプリの登録時に生成されたクライアント ID とクライアント シークレット キーを使用します。プロジェクト インスタンスの構成値は GitHub リポジトリに保持されており、ワークスペース サービスの **Profile**ページで表示できます。 +ワークスペース サービスは、GitHub OAuth アプリを使用してユーザーを承認し、プロジェクトの状態を管理します。ワークスペース サービスにプロジェクト インスタンス構成を保存する権限を与えるには、GitHub OAuth アプリの登録時に生成されたクライアント ID とクライアント シークレット キーを使用します。プロジェクト インスタンスの構成値は GitHub リポジトリに保持されており、ワークスペース サービスの **Profile** ページで表示できます。 初めてのユーザーは、続行する前に以下の手順を完了する必要があります。VPC の構成やアクセス権について不明な点がある場合は、組織の管理者に問い合わせてください。 -1. GitHub アカウントにログオンし、OAuth アプリを作成します。 link:https://docs.github.com/en/apps/oauth-apps/building-oauth-apps/creating-an-oauth-app[GitHub ドキュメント]を参照してください。 +1. GitHub アカウントにログオンし、OAuth アプリを作成します。 link:https://docs.github.com/en/apps/oauth-apps/building-oauth-apps/creating-an-oauth-app[GitHub ドキュメント] を参照してください。 + OAuth アプリを登録するときに、URL フィールドに以下のワークスペース サービス URL を入力します。 + * **ホームページのURL**: http://:3000/ * **認証コールバック URL**: http://:3000/auth/github/callback -2. **クライアントID**と**クライアントの秘密鍵**をコピーして保持します。 - +2. **クライアントID** と **クライアントの秘密鍵** をコピーして保持します。 ワークスペース サービスを設定するには、以下の手順を実行します。 @@ -217,7 +214,7 @@ OAuth アプリを登録するときに、URL フィールドに以下のワー + image::ai-unlimited/{page-image-directory}/ai.unlimited.workspaces.setting.png[] -2. **セットアップ**の下に以下の一般的なサービス構成を適用します。 +2. **セットアップ** の下に以下の一般的なサービス構成を適用します。 + [cols="1,1,1"] |=== @@ -236,7 +233,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.workspaces.setting.png[] |はい |Engine IP Network Type -|エンジン インスタンスに割り当てられるネットワークの型。パブリックまたはプライベートのいずれかになります。ワークスペースサービスと同じVPCにエンジンをデプロイする場合は、**Private**オプションを選択します。 +|エンジン インスタンスに割り当てられるネットワークの型。パブリックまたはプライベートのいずれかになります。ワークスペースサービスと同じVPCにエンジンをデプロイする場合は、**Private** オプションを選択します。 |はい |Use TLS @@ -252,11 +249,11 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.workspaces.setting.png[] |いいえ |=== -3. **Service Base URL**に自己署名証明書を使用するには、**GENERATE TLS**を選択します。証明書と秘密鍵が生成され、それぞれのフィールドに表示されます。 +3. **Service Base URL** に自己署名証明書を使用するには、**GENERATE TLS** を選択します。証明書と秘密鍵が生成され、それぞれのフィールドに表示されます。 -4. **Save Changes**を選択します。 +4. **Save Changes** を選択します。 -5. 選択した **Cloud Integrations: CSP**の下に以下の設定を適用します。 +5. 選択した **Cloud Integrations: CSP** の下に以下の設定を適用します。 + [cols="1,1,1"] |=== @@ -296,7 +293,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.workspaces.setting.png[] |=== 6. **Save Changes** を選択します。 -7. **Git Integrations**の下に以下の設定を適用します。 +7. **Git Integrations** の下に以下の設定を適用します。 + [cols="1,1,1"] |=== @@ -315,11 +312,11 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.workspaces.setting.png[] |いいえ |GitHub Base URL -|GitHubアカウントのベースURL。URL はアカウントの型によって異なる場合があります。例えば、GitHub Enterprise アカウントの場合は https://github.company.com/ 。 +|GitHubアカウントのベースURL。URL はアカウントの型によって異なる場合があります。例えば、GitHub Enterprise アカウントの場合は https://github.company.com/ です。 |いいえ |=== -8. **Authenticate**を選択します 。GitHub にリダイレクトされます。 +8. **Authenticate** を選択します 。GitHub にリダイレクトされます。 9. GitHub 信頼証明を使用してログオンし、ワークスペース サービスを承認します。 + diff --git a/modules/ROOT/pages/ja/ai-unlimited/running-sample-ai-unlimited-workload.adoc b/modules/ROOT/pages/ja/ai-unlimited/running-sample-ai-unlimited-workload.adoc index 9d413522f..2367d44e5 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/running-sample-ai-unlimited-workload.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/running-sample-ai-unlimited-workload.adoc @@ -21,7 +21,8 @@ IMPORTANT: この製品はプレビュー版であり、変更される可能性 == 始める前に -* Teradata AI Unlimited Workspaces と JupyterLab をデプロイして構成します。 link:install-ai-unlimited-workspaces-docker.html[Dockerを使用した Teradata AI Unlimited Workspaceサービスのデプロイとセットアップ] と link:install-ai-unlimited-interface-docker.html[Dockerを使用した Teradata AI Unlimited インターフェースのデプロイ] を参照してください。 + +* Teradata AI Unlimited Workspaces と JupyterLab をデプロイして構成します。link:install-ai-unlimited-workspaces-docker.html[Dockerを使用した Teradata AI Unlimited Workspaceサービスのデプロイとセットアップ] と link:install-ai-unlimited-interface-docker.html[Dockerを使用した Teradata AI Unlimited インターフェースのデプロイ] を参照してください。 * 以下をコピーして保持します。 @@ -30,7 +31,7 @@ IMPORTANT: この製品はプレビュー版であり、変更される可能性 == 最初のワークロードを実行する -マジックコマンドの詳細については、`%help`または`%help `を実行してください。詳細については、 link:ai-unlimited-magic-reference.html[Teradata AI Unlimited JupyterLab マジック コマンド リファレンス] を参照してください。 +マジックコマンドの詳細については、`%help` または `%help ` を実行してください。詳細については、link:ai-unlimited-magic-reference.html[Teradata AI Unlimited JupyterLab マジック コマンド リファレンス] を参照してください。 1. URL: http://localhost:8888 を使用して JupyterLab に接続し、プロンプトが表示されたらトークンを入力します。 2. APIキーを使用してワークスペースサービスに接続します。 @@ -51,7 +52,7 @@ NOTE: 現在、Teradata AI Unlimited は AWS と Azure をサポートしてい 4. (オプション) CSP 信頼証明を保存するための認証オブジェクトを作成します。 + -`ACCESS_KEY_ID`、`SECRET_ACCESS_KEY`、および`REGION`を実際の値に置き換えます。 +`ACCESS_KEY_ID`、`SECRET_ACCESS_KEY`、および `REGION` を実際の値に置き換えます。 + [source, bash, id="create_auth", role="content-editable emits-gtm-events"] @@ -105,7 +106,7 @@ CREATE MULTISET TABLE SalesCenter ,NO FALLBACK , NO PRIMARY INDEX ; ---- -b. `%dataload`マジックコマンドを使用して、データをSalesCenterテーブルにロードします。 +b. `%dataload` マジックコマンドを使用して、データをSalesCenterテーブルにロードします。 + [source, bash, id="data_load", role="content-editable emits-gtm-events"] @@ -113,7 +114,7 @@ b. `%dataload`マジックコマンドを使用して、データをSalesCenter %dataload DATABASE=, TABLE=SalesCenter, FILEPATH=notebooks/sql/data/salescenter.csv ---- + -NOTE: salescenter.csv ファイルが見つかりませんか?link:https://github.com/Teradata/jupyter-demos/tree/main/Getting_Started/Charting_and_Visualization/data[GitHub Demo:Charting and Visualization Data]からファイルをダウンロードします。 +NOTE: salescenter.csv ファイルが見つかりませんか? link:https://github.com/Teradata/jupyter-demos/tree/main/Getting_Started/Charting_and_Visualization/data[GitHub Demo:Charting and Visualization Data] からファイルをダウンロードします。 + データが挿入されたことを確認します。 + @@ -150,7 +151,7 @@ d. `%dataload`マジック コマンドを使用して、SalesDemo テーブル %dataload DATABASE=, TABLE=SalesDemo, FILEPATH=notebooks/sql/data/salesdemo.csv ---- + -NOTE: salesdemo.csv ファイルが見つかりませんか?link:https://github.com/Teradata/jupyter-demos/tree/main/Getting_Started/Charting_and_Visualization/data[GitHub Demo:Charting and Visualization Data]からファイルをダウンロードします。 +NOTE: salesdemo.csv ファイルが見つかりませんか? link:https://github.com/Teradata/jupyter-demos/tree/main/Getting_Started/Charting_and_Visualization/data[GitHub Demo:Charting and Visualization Data] からファイルをダウンロードします。 + 販売デモ データが正常に挿入されたことを確認します。 + diff --git a/modules/ROOT/pages/ja/ai-unlimited/using-ai-unlimited-workspace-cli.adoc b/modules/ROOT/pages/ja/ai-unlimited/using-ai-unlimited-workspace-cli.adoc index 2215be091..b945a81bc 100644 --- a/modules/ROOT/pages/ja/ai-unlimited/using-ai-unlimited-workspace-cli.adoc +++ b/modules/ROOT/pages/ja/ai-unlimited/using-ai-unlimited-workspace-cli.adoc @@ -95,7 +95,7 @@ workspacesctl project backup --no-tls workspacesctl project engine suspend --no-tls ---- -サポートされているコマンドのリストについては、<<_workspaces_cli_reference, ワークスペースクライアントのリファレンス>>を参照してください。 +サポートされているコマンドのリストについては、 <<_workspaces_cli_reference, ワークスペースクライアントのリファレンス>> を参照してください。 == ワークスペースクライアントのリファレンス @@ -149,7 +149,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.user.list.png[AI Unl ---- workspacesctl project create -e --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: [cols="1,1,1,1"] @@ -196,7 +196,7 @@ workspacesctl project list --no-tls ---- workspacesctl project list --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: @@ -237,7 +237,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.project.delete.png[A ---- workspacesctl project user list --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: @@ -256,7 +256,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.project.user.list.pn ---- workspacesctl project backup --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: @@ -283,7 +283,7 @@ workspacesctl project restore --no-tls ---- workspacesctl project restore --gitref --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: [cols="1,1,1,1"] @@ -317,7 +317,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.project.restore.png[ ---- workspacesctl project engine deploy -t small --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: [cols="1,1,1,1"] @@ -408,7 +408,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.engine.list.png[AI U ---- workspacesctl project auth create -n -a -s -r --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: [cols="1,1,1,1"] @@ -418,12 +418,12 @@ NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメー |`-a`, `--accesskey` |文字列 |認証アクセスキーまたはID。 -|はい (`-f`フラグを使用していない場合)。 +|はい ( `-f` フラグを使用していない場合)。 |`-n`, `--name string` |文字列 |オブジェクトストアの認証名。 -|はい (`-f`フラグを使用していない場合)。 +|はい ( `-f` フラグを使用していない場合)。 |`-f`, `--manifest` |文字列 @@ -438,7 +438,7 @@ NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメー |-s, --secret string |文字列 |オブジェクト ストアの認証シークレット アクセス キー。 -|はい (`-f`フラグを使用していない場合)。 +|はい ( `-f` フラグを使用していない場合)。 |`-h`, `--help` | @@ -462,7 +462,8 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.auth.create.png[AI U ---- workspacesctl project auth list --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、` `パラメータを追加する必要はありません。-no-tls +NOTE: 設定にTLS設定が含まれている場合は、 `-no-tls`パラメータを追加する必要はありません。 + **フラグ**: @@ -483,7 +484,7 @@ image::ai-unlimited/{page-image-directory}/ai.unlimited.cli.auth.list.png[AI Unl ---- workspacesctl project auth delete -n --no-tls ---- -NOTE: 設定にTLS設定が含まれている場合は、`-no-tls`パラメータを追加する必要はありません。 +NOTE: 設定にTLS設定が含まれている場合は、`-no-tls` パラメータを追加する必要はありません。 **フラグ**: [cols="1,1,1,1"] diff --git a/modules/ROOT/pages/ja/business-intelligence/create-stunning-visualizations-in-power-bi-using-data-from-teradata-vantage.adoc b/modules/ROOT/pages/ja/business-intelligence/create-stunning-visualizations-in-power-bi-using-data-from-teradata-vantage.adoc index fd3c63915..c3e1c2031 100644 --- a/modules/ROOT/pages/ja/business-intelligence/create-stunning-visualizations-in-power-bi-using-data-from-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/business-intelligence/create-stunning-visualizations-in-power-bi-using-data-from-teradata-vantage.adoc @@ -20,8 +20,8 @@ https://docs.microsoft.com/en-us/power-bi/power-bi-overview[Power BI] は、ソ .Power BI は以下で構成されます。 * https://docs.microsoft.com/en-us/power-bi/fundamentals/desktop-what-is-desktop[Power BI Desktop] -と呼ばれる Windows デスクトップ アプリケーション* https://docs.microsoft.com/en-us/power-bi/fundamentals/power-bi-service-overview[Power BI サービス] -と呼ばれるオンライン SaaS サービス* Windows、iOS、Android デバイス用の https://docs.microsoft.com/en-us/power-bi/consumer/mobile/mobile-apps-for-mobile-devices[Power BI モバイル] アプリ + と呼ばれる Windows デスクトップ アプリケーション* https://docs.microsoft.com/en-us/power-bi/fundamentals/power-bi-service-overview[Power BI サービス] + と呼ばれるオンライン SaaS サービス* Windows、iOS、Android デバイス用の https://docs.microsoft.com/en-us/power-bi/consumer/mobile/mobile-apps-for-mobile-devices[Power BI モバイル] アプリ image::business-intelligence/{page-image-directory}/power.bi.elements.png[Power BI 要素, width=100%] @@ -29,7 +29,7 @@ image::business-intelligence/{page-image-directory}/power.bi.elements.png[Power image::business-intelligence/{page-image-directory}/power.bi.overview.blocks.png[Power BIの概要ブロック, width=100%] -4 番目の要素である https://docs.microsoft.com/en-us/power-bi/report-server/get-started[Power BI Report Server を使用]すると、Power BI Desktop で Power BI レポートを作成した後、オンプレミスのレポート サーバーに発行できます。 +4 番目の要素である https://docs.microsoft.com/en-us/power-bi/report-server/get-started[Power BI Report Server ] を使用すると、Power BI Desktop で Power BI レポートを作成した後、オンプレミスのレポート サーバーに発行できます。 Power BI Desktop は、Vantage を「ネイティブ」データ ソースとしてではなく、サード パーティ データ ソースとしてサポートします。 代わりに、Power BI サービスで公開されたレポートは、 構成要素の https://docs.microsoft.com/en-us/power-bi/connect-data/service-gateway-onprem[オンプレミス データ ゲートウェイ] を使用して Vantage にアクセスする必要があります。 @@ -40,20 +40,20 @@ Azure サービス、Teradata Vantage、Power BI Desktop に精通している 以下のアカウントとシステムが必要です。 -* Power BI Desktop は、Windows 用の無料アプリケーションです。(Power BI Desktop は Mac では利用できません。 https://www.parallels.com/[Parallels] や https://www.vmware.com/products/fusion.html[VMware Fusion]などの仮想マシン、または Apple の https://support.apple.com/en-vn/boot-camp[Boot Camp]で実行することもできますが、それはこの記事のスコープ外です。) +* Power BI Desktop は、Windows 用の無料アプリケーションです。(Power BI Desktop は Mac では利用できません。 https://www.parallels.com/[Parallels] や https://www.vmware.com/products/fusion.html[VMware Fusion] などの仮想マシン、または Apple の https://support.apple.com/en-vn/boot-camp[Boot Camp]で実行することもできますが、それはこの記事のスコープ外です。) * ユーザーとパスワードを持つ Teradata Vantage インスタンス。ユーザーは、Power BI Desktop で使用できるデータに対するアクセス認証を持っている必要があります。Vantage には Power BI Desktop からアクセスできる必要があります。 + -include::ROOT:partial$vantage_clearscape_analytics.adoc[] +include::../partials/vantage_clearscape_analytics.adoc[] * https://downloads.teradata.com/download/connectivity/net-data-provider-for-teradata[.NET Data Provider for Teradata]。 == はじめに === Power BI Desktopをインストールする -Power BI Desktop は https://aka.ms/pbidesktopstore[Microsoft Store] からインストールすることも、 https://aka.ms/pbiSingleInstaller[インストーラーをダウンロード]し て直接実行することもできます。 +Power BI Desktop は https://aka.ms/pbidesktopstore[Microsoft Store] からインストールすることも、 https://aka.ms/pbiSingleInstaller[インストーラーをダウンロード] し て直接実行することもできます。 === .NET Data Provider for Teradata をインストールする -最新バージョンの https://downloads.teradata.com/download/connectivity/net-data-provider-for-teradata[.NET Data Provider for Teradata ]をダウンロードしてインストールします。 +最新バージョンの https://downloads.teradata.com/download/connectivity/net-data-provider-for-teradata[.NET Data Provider for Teradata ] をダウンロードしてインストールします。 ダウンロードできるファイルは複数あることに注記してください。「tdnetdp」で始まるファイルが必要です。 @@ -70,8 +70,8 @@ image::business-intelligence/{page-image-directory}/power.bi.splash.screen.png[P image::business-intelligence/{page-image-directory}/power.bi.get.data.menu.png[Power BIのGet Dataメニュー, width=70%] -* 左側の_Database_をクリックします。 -* _Teradata database_が表示されるまで、右側のリストをスクロールします。_Teradata database_をクリックしてから、_Connect_ボタンをクリックします。 +* 左側の _Database_ をクリックします。 +* _Teradata database_ が表示されるまで、右側のリストをスクロールします。_Teradata database_ をクリックしてから、_Connect_ ボタンをクリックします。 (今回は、「Teradata database」と「Teradata Vantage」は同義です。) @@ -83,11 +83,11 @@ image::business-intelligence/{page-image-directory}/power.bi.server.connect.png[ (_Advanced_ オプションをクリックして、手作りした SQL文を送信します。) -信頼証明については、Vantage で定義された _Windows_ ログインまたは _データベース_ ユーザー名を使用して接続するオプションがあります。これがより一般的です。適切な 認証方式を選択し、ユーザー名とパスワードを入力します。_Connect_をクリックします。 +信頼証明については、Vantage で定義された _Windows_ ログインまたは _データベース_ ユーザー名を使用して接続するオプションがあります。これがより一般的です。適切な 認証方式を選択し、ユーザー名とパスワードを入力します。_Connect_ をクリックします。 また、LDAPサーバで認証するオプションもある。このオプションは、デフォルトでは非表示になっている。 -環境変数 _PBI_EnableTeradataLdap_を _true_ に設定すると、LDAP 認証方式が使用可能になります。 +環境変数 _PBI_EnableTeradataLdap_ を _true_ に設定すると、LDAP 認証方式が使用可能になります。 image::business-intelligence/{page-image-directory}/power.bi.ldap.png[Power BI LDAP 接続, width=70%] @@ -117,7 +117,7 @@ Power BI Desktop では、レポートを保存するように求められます image::business-intelligence/{page-image-directory}/power.bi.workspace.png[Power BIによるワークスペースへの公開, width=90%] -レポートが公開されたら、_Got it_をクリックして閉じます。また、リンクにレポート名が含まれているリンクをクリックすることもできます。 +レポートが公開されたら、_Got it_ をクリックして閉じます。また、リンクにレポート名が含まれているリンクをクリックすることもできます。 image::business-intelligence/{page-image-directory}/power.bi.success.png[パワーBIが正常に公開されました, width=90%] @@ -134,4 +134,4 @@ Power BI Desktop を使用して、さまざまなソースからのデータを * https://docs.microsoft.com/en-us/power-bi/desktop-connect-excel[Power BI Desktop で Excel ブックに接続する] * https://docs.microsoft.com/en-us/power-bi/desktop-enter-data-directly-into-desktop[Power BI Desktop にデータを直接入力する] -include::ROOT:partial$community_link.adoc[] +include::../partials/community_link.adoc[] diff --git a/modules/ROOT/pages/ja/cloud-guides/connect-azure-data-share-to-teradata-vantage.adoc b/modules/ROOT/pages/ja/cloud-guides/connect-azure-data-share-to-teradata-vantage.adoc index ec1e07163..fb70784ae 100644 --- a/modules/ROOT/pages/ja/cloud-guides/connect-azure-data-share-to-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/connect-azure-data-share-to-teradata-vantage.adoc @@ -20,9 +20,9 @@ image:cloud-guides/{page-image-directory}/image2.png[Image,width=50%] === Azure Data Shareについて -https://docs.microsoft.com/en-us/azure/data-share/overview[Azure Data Share] は、企業が複数の顧客やパートナーと簡単かつ安全にデータを共有することを可能にします。データ提供者とデータ消費者の両方が、データを共有および受信するためにAzureサブスクリプションを持つ必要があります。Azure Data Shareは現在、スナップショットベースの共有とインプレース共有を提供しています。現在、Azure Data Shareがhttps://docs.microsoft.com/en-us/azure/data-share/supported-data-stores[サポートしているデータストア]は、Azure Blob Storage、Azure Data Lake Storage Gen1およびGen2、Azure SQL Database、Azure Synapse Analytics、Azure Data Explorerです。Azure Data Shareを使用してデータセット共有を送信すると、データ消費者はAzure Blob Storageなどの任意のデータストアでそのデータを受け取り、Teradata Vantageを使用してデータを探索、分析することができます。 +https://docs.microsoft.com/en-us/azure/data-share/overview[Azure Data Share] は、企業が複数の顧客やパートナーと簡単かつ安全にデータを共有することを可能にします。データ提供者とデータ消費者の両方が、データを共有および受信するためにAzureサブスクリプションを持つ必要があります。Azure Data Shareは現在、スナップショットベースの共有とインプレース共有を提供しています。現在、Azure Data Shareが https://docs.microsoft.com/en-us/azure/data-share/supported-data-stores[サポートしているデータストア] は、Azure Blob Storage、Azure Data Lake Storage Gen1およびGen2、Azure SQL Database、Azure Synapse Analytics、Azure Data Explorerです。Azure Data Shareを使用してデータセット共有を送信すると、データ消費者はAzure Blob Storageなどの任意のデータストアでそのデータを受け取り、Teradata Vantageを使用してデータを探索、分析することができます。 -詳細については、https://docs.microsoft.com/en-us/azure/data-share/[ドキュメント]を参照してください。 +詳細については、https://docs.microsoft.com/en-us/azure/data-share/[ドキュメント] を参照してください。 === Teradata Vantageについて @@ -47,8 +47,8 @@ Teradata Vantage Native Object Store(NOS)は、標準的なSQLを使用し include::../partials/vantage_clearscape_analytics.adoc[] -* Azureアカウント。 https://azure.microsoft.com/free/[無料アカウント]で始めることができます。 -* データデータセットを保存するための https://docs.microsoft.com/en-us/azure/storage/common/storage-quickstart-create-account?tabs=azure-portal[Azure Blob Storage]アカウント。 +* Azureアカウント。 https://azure.microsoft.com/free/[無料アカウント] で始めることができます。 +* データデータセットを保存するための https://docs.microsoft.com/en-us/azure/storage/common/storage-quickstart-create-account?tabs=azure-portal[Azure Blob Storage] アカウント。 == 手順 @@ -62,51 +62,52 @@ include::../partials/vantage_clearscape_analytics.adoc[] 6. lob Storageのデータセットにクエリーを実行する 7. Blob StorageからVantageにデータをロードする(オプション) -=== Azure Blob Storageアカウントとコンテナの作成 +=== Azure Blob Storageアカウントとコンテナを作成する -* ブラウザで https://portal.azure.com/[Azureポータル]を開き(Chrome、Firefox、Safariでうまくいきます)、この記事の_myProviderStorage_rg_というリソースグループにhttps://docs.microsoft.com/en-us/azure/storage/common/storage-account-create?tabs=azure-portal#create-a-storage-account-1[ストレージアカウントを作成する]の手順に従います。 +* ブラウザで https://portal.azure.com/[Azureポータル] を開き(Chrome、Firefox、Safariでうまくいきます)、この記事の _myProviderStorage_rg_ というリソースグループに https://docs.microsoft.com/en-us/azure/storage/common/storage-account-create?tabs=azure-portal#create-a-storage-account-1[ストレージアカウントを作成する] の手順に従います。 * ストレージ名と接続方式を入力します。今回は、 _myproviderstorage_ と _public endpoint_ を使用します。 + NOTE: 作成するすべてのサービスに同じ場所を使用することをお勧めします。 -* *Review + create* を選択し、*Create*を選択します。 +* *Review + create* を選択し、*Create* を選択します。 * *Go to resource* をクリックし、 *Containers* をクリックし、コンテナを作成します。 -* *+ Container*ボタンをクリックします。 +* *+ Container* ボタンをクリックします。 * コンテナ名を入力します。今回は _providerdata_ を使用します。 + image:cloud-guides/{page-image-directory}/image3.png[image,width=623,height=138] -* *作成*をクリックします。 +* *作成* をクリックします。 === データシェアアカウントの作成 データセットを共有するプロバイダーのデータ共有アカウントを作成します。 -この記事の https://docs.microsoft.com/en-us/azure/data-share/share-your-data?tabs=azure-portal#create-a-data-share-account[「Azure データ共有アカウントの作成」] 手順に従い、 _myDataShareProvider_rg_ というリソース グループにリソースを作成します。 +この記事の https://docs.microsoft.com/en-us/azure/data-share/share-your-data?tabs=azure-portal#create-a-data-share-account[Azure データ共有アカウントの作成] の手順に従い、 _myDataShareProvider_rg_ というリソース グループにリソースを作成します。 -* *Basics*タブで、データ共有アカウント名を入力します。今回は 、_mydatashareprovider_ を使用します。 +* *Basics* タブで、データ共有アカウント名を入力します。今回は 、_mydatashareprovider_ を使用します。 + image:cloud-guides/{page-image-directory}/image4.png[image,width=576,height=394] + NOTE: 作成するすべてのサービスに同じ場所を使用することをお勧めします。 -* *Review + create* を選択し、*Create*を選択します。 +* *Review + create* を選択し、*Create* を選択します。 -* デプロイが完了したら、*Go to resource*を選択します。 +* デプロイが完了したら、*Go to resource* を選択します。 === 共有の作成 -* [データ共有]の概要ページに移動し、 https://docs.microsoft.com/en-us/azure/data-share/share-your-data?tabs=azure-portal#create-a-share[「共有を作成」]の手順に従います。 +* [データ共有]の概要ページに移動し、 https://docs.microsoft.com/en-us/azure/data-share/share-your-data?tabs=azure-portal#create-a-share[共有を作成] の手順に従います。 * *Start sharing your data* を選択します。 * + *Create* を選択します。 -* *Details*タブで、共有名と共有タイプを入力します。今回は、_WeatherData_ と _Snapshot_ を使用します。 +* *Details* タブで、共有名と共有タイプを入力します。今回は、_WeatherData_ と _Snapshot_ を使用します。 + + image:cloud-guides/{page-image-directory}/image5.png[image,width=472,height=381] @@ -126,11 +127,11 @@ image:cloud-guides/{page-image-directory}/image5.png[image,width=472,height=381] サポートされているデータストア Azure データエクスプローラ ==== -* *Continue*をクリックします。 +* *Continue* をクリックします。 -* *Datasets*タブで、 *Add datasets* -をクリックします。 -* を選択します *Azure Blob Storage* +* *Datasets* タブで、 *Add datasets* + をクリックします。 +* *Azure Blob Storage* を選択します。 + image:cloud-guides/{page-image-directory}/image6.png[Image,width=378,height=360] @@ -141,7 +142,7 @@ image:cloud-guides/{page-image-directory}/image6.png[Image,width=378,height=360] image:cloud-guides/{page-image-directory}/image7.png[Image,width=394,height=364] -* *Next*をクリックします。 +* *Next* をクリックします。 * コンテナをダブルクリックして、データセットを選択します。今回は 、_providerdata_ と _onpoint_history_postal-code_hour.csv_ ファイルを使用します。 + @@ -151,19 +152,19 @@ image:cloud-guides/{page-image-directory}/image8.png[Image,width=381,height=259] NOTE: Azure Data Share は、フォルダおよびファイル レベルで共有できます。ファイルのアップロードには、Azure Blob Storageリソースを使用します。 -* *次へ*をクリックします。 +* *次へ* をクリックします。 -* コンシューマに表示されるフォルダとデータセットのデータセット名を入力します。今回はデフォルトの名前を使用しますが、providerdata フォルダを削除します。*Add datasets*をクリックします。 +* コンシューマに表示されるフォルダとデータセットのデータセット名を入力します。今回はデフォルトの名前を使用しますが、providerdata フォルダを削除します。*Add datasets* をクリックします。 + image:cloud-guides/{page-image-directory}/image9.png[Image,width=392,height=266] -* *Add datasets*をクリックします。 +* *Add datasets* をクリックします。 + image:cloud-guides/{page-image-directory}/image10.png[送信済み共有に追加されたデータセット,image,width=624,height=242] -* *Continue*をクリックします。 +* *Continue* をクリックします。 -* *Recipients*タブで、 *Add recipient*の電子メールアドレスを追加するをクリックします。。 +* *Recipients* タブで、 *Add recipient* の電子メールアドレスを追加するをクリックします。。 * 消費者の電子メールアドレスを入力します。 + @@ -171,15 +172,15 @@ image:cloud-guides/{page-image-directory}/image11.png[受信者の電子メー TIP: 消費者が受け入れることができるシェア有効期限を設定します。 -* *Continue*をクリックします。 +* *Continue* をクリックします。 * [*Settings*] タブで、スナップショットのスケジュールを設定します。今回は、デフォルトで _チェックを外して_ 使用します。 + image:cloud-guides/{page-image-directory}/image12.png[スナップショットのスケジュールを設定,image,width=437,height=299] -* *Continue*をクリックします。 +* *Continue* をクリックします。 -* *Review + Create*タブの *Create*をクリックします。 +* *Review + Create* タブの *Create*をクリックします。 + image:cloud-guides/{page-image-directory}/image13.png[Review + Create,image,width=440,height=334] @@ -191,17 +192,17 @@ image:cloud-guides/{page-image-directory}/image14.png[データ共有の準備 今回は、受信者/消費者が Azure Blob ストレージ アカウントにデータを受信することを想定しています。 -データ共有_プロバイダ_と同様に、データ共有の招待を受け入れる前に、_コンシューマ_のすべての事前要件が完了していることを確認します。 +データ共有 _プロバイダ_ と同様に、データ共有の招待を受け入れる前に、_コンシューマ_ のすべての事前要件が完了していることを確認します。 -* Azureのサブスクリプション。持っていない場合は、事前にhttps://azure.microsoft.com/free/[+++無料アカウント+++]を作成してください。 -* Azure Blob Storage アカウントとコンテナ: _myConsumerStorage_rg_というリソース グループを作成し、アカウント名 _myconsumerstorage_ とコンテナ _consumerdata_を作成します。 +* Azureのサブスクリプション。持っていない場合は、事前に https://azure.microsoft.com/free/[+++無料アカウント+++] を作成してください。 +* Azure Blob Storage アカウントとコンテナ: _myConsumerStorage_rg_ というリソース グループを作成し、アカウント名 _myconsumerstorage_ とコンテナ _consumerdata_ を作成します。 * Azure Data Share アカウント: _myDataShareConsumer_rg_ というリソース グループを作成し、 _mydatashareconsumer_ というデータ共有アカウント名を作成して、データを受け入れます。 - https://docs.microsoft.com/en-us/azure/data-share/subscribe-to-data-share?tabs=azure-portal[「Azure Data Shareを使用してデータを受信する」]の手順に従います。 + https://docs.microsoft.com/en-us/azure/data-share/subscribe-to-data-share?tabs=azure-portal[Azure Data Shareを使用してデータを受信する]の手順に従います。 ==== 招待状を開く -* メールには、Microsoft Azureから「Azure Data Share invitation from *mailto:yourdataprovider@domain.com[+++yourdataprovider@domain.com+++].*という件名の招待状が届いています。*View invitation(招待状を表示する)*をクリックすると、Azureで招待状を表示することができます。 +* メールには、Microsoft Azureから「Azure Data Share invitation from *mailto:yourdataprovider@domain.com[+++yourdataprovider@domain.com+++].*という件名の招待状が届いています。*View invitation(招待状を表示する)* をクリックすると、Azureで招待状を表示することができます。 + image:cloud-guides/{page-image-directory}/image15.png[受信者へのData Share招待状メール,image,width=387,height=192] @@ -215,7 +216,7 @@ image:cloud-guides/{page-image-directory}/image16.png[Data Shareへの招待,ima * _Target Data Share Account(ターゲット データ共有アカウント)_ で、データシェアをデプロイするサブスクリプションとリソースグループを選択するか、ここで新しいデータシェアを作成することができます。 + -NOTE: プロバイダが利用規約の承諾を必要とする場合、ダイアログボックスが表示され、利用規約に同意することを示すボックスにチェックを入れる必要があります。 +NOTE: f プロバイダが利用規約の承諾を必要とする場合、ダイアログボックスが表示され、利用規約に同意することを示すボックスにチェックを入れる必要があります。 * Resource groupとData share accountを入力します。今回は _myDataShareConsumer_rg_ と _mydatashareconsumer_ のアカウントを使用します。 + @@ -229,7 +230,7 @@ image:cloud-guides/{page-image-directory}/image17.png[Target Data Share アカ + image:cloud-guides/{page-image-directory}/image18.png[DatasetとMap to targetを選択,image,width=568,height=186] -* ターゲットデータストアの種類と、データを格納するパスを選択します。この記事のスナップショットの例では、コンシューマーの Azure Blob Storage アカウント _myconsumerstorage_ とコンテナ _consumerdata_を使用することにします。 +* ターゲットデータストアの種類と、データを格納するパスを選択します。この記事のスナップショットの例では、コンシューマーの Azure Blob Storage アカウント _myconsumerstorage_ とコンテナ _consumerdata_ を使用することにします。 + NOTE: Azure Data Shareは、異なるデータストアから、または異なるデータストアへの共有機能を含む、オープンで柔軟なデータ共有を提供します。スナップショットおよびインプレース共有を受け入れることができるhttps://docs.microsoft.com/en-us/azure/data-share/supported-data-stores#supported-data-stores[サポートされた]データソースを確認します。 + @@ -237,15 +238,14 @@ image:cloud-guides/{page-image-directory}/image19.png[データセットをタ * *Map to target*をクリックします。 -* マッピングが完了したら、スナップショットベースの共有のために、*Details*タブをクリックし、_フル_または_インクリメンタル_インクリメンタルで *Trigger snapshot*をクリックします。プロバイダからデータを受け取るのは初めてなので、完全なコピーを選択します。 +* マッピングが完了したら、スナップショットベースの共有の場合は、*Details* タブをクリックし、_Full_ または _Incremental_ で *Trigger snapshot* をクリックします。プロバイダからデータを受け取るのは初めてなので、完全なコピーを選択します。 + image:cloud-guides/{page-image-directory}/image20.png[フルまたはインクリメンタルのスナップショットをトリガーする,image,width=326,height=280] -* 最終実行ステータスが_successful (成功)_したら、ターゲットデータストアに移動して受信したデータを表示します。 *Datasets* を選択し、Target Pathにあるリンクをクリックします。 +* 最終実行ステータスが _成功_ したら、ターゲットデータストアに移動して受信したデータを表示します。 *Datasets* を選択し、Target Pathにあるリンクをクリックします。 + image:cloud-guides/{page-image-directory}/image21.png[共有データを表示するためのデータセットとターゲットパス,image,width=623,height=118] - === Azure Blob Storage への NOS アクセスの構成 Native Object Store(NOS)は、Azure Blob Storageのデータを直接読み込むことができるため、明示的にデータを読み込むことなくBlob Storageのデータを探索、分析することが可能です。 @@ -320,7 +320,7 @@ image:cloud-guides/{page-image-directory}/image23.png[WeatherData テーブル ビューを使用すると、ペイロード属性に関連する名前を簡素化でき、オブジェクトデータに対するSQLを簡単にコーディングでき、外部テーブルのLocation参照を隠蔽できます。 -NOTE: Vantage の外部テーブルでは、オブジェクト名と列名の区切りに`..`(ダブルドットまたはダブルピリオド) オペレータが使用されます。 +NOTE: Vantage の外部テーブルでは、オブジェクト名と列名の区切りに `..` (ダブルドットまたはダブルピリオド) オペレータが使用されます。 * 以下の SQL コマンドを実行し、ビューを作成します。 + @@ -552,8 +552,8 @@ FROM + ** _LOCATION_ では、ストレージアカウント名とコンテナ名が必要です。これは上記で黄色で強調表示されています。これを自分のストレージアカウント名とコンテナ名で置き換える必要があります。 ** _ACCESS_ID_ の文字列を、ストレージアカウント名で置き換えます。 -** _ACCES_KEY_ の文字列を、ストレージアカウントのアクセスキーまたはSASトークン -に置き換えます。 +** _ACCES_KEY_ の文字列を、ストレージアカウントのアクセスキーまたはSASトークン + に置き換えます。 + image:cloud-guides/{page-image-directory}/image27.png[READ_NOS,width=624,height=86] @@ -576,7 +576,7 @@ FROM ) AS THE_TABLE ORDER BY 1 ---- -** _LOCATION_、 _ACCESS_ID_、および _ACCESS_KEY_の値を入れ替えてください。 +** _LOCATION_、 _ACCESS_ID_、および _ACCESS_KEY_ の値を入れ替えてください。 + image:cloud-guides/{page-image-directory}/image28.png[READ_NOSオブジェクトの長さ,image,width=623,height=30] diff --git a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-google-vertex-ai.adoc b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-google-vertex-ai.adoc index c77de9520..b3ce73134 100644 --- a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-google-vertex-ai.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-google-vertex-ai.adoc @@ -27,7 +27,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] Vertex AIでTeradata Jupyter Extensionsを実行するには、2つの方法があります。 1. link:#_use_startup_script[スタートアップスクリプトを使用する] -2.link:#_use_custom_container[カスタムコンテナを使用する] +2. link:#_use_custom_container[カスタムコンテナを使用する] この2つの統合方法について、以下に説明します。 @@ -79,7 +79,7 @@ pip install teradataml + image:cloud-guides/{page-image-directory}/vertex.create.notebook.startupscript.png[起動スクリプトを使用して新しいNotebookを作成する, width=75%] -5. Notebookの作成が完了するまで、数分かかる場合があります。完了したら、 `Open notebook`をクリックする。 +5. Notebookの作成が完了するまで、数分かかる場合があります。完了したら、 `Open notebook` をクリックする。 + image:cloud-guides/{page-image-directory}/vertex.open.notebook.png[Open notebook, width=75%] @@ -89,7 +89,8 @@ image:cloud-guides/{page-image-directory}/vertex.open.notebook.png[Open notebook 1. Teradata Jupyter エクステンションパッケージのダウンロードする + -link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter ]ページから、Teradata Jupyter extensionsパッケージバンドルLinux版をダウンロードします。 +link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter ] ページから、Teradata Jupyter extensionsパッケージバンドルLinux版をダウンロードします。 + 2. このパッケージを作業ディレクトリにコピーし、解凍する @@ -171,8 +172,8 @@ image:cloud-guides/{page-image-directory}/vertex.custom.container.png[Open noteb * link:https://teradata.github.io/jupyterextensions[Teradata Jupyter 拡張機能 Web サイト] * link:https://docs.teradata.com/r/KQLs1kPXZ02rGWaS9Ktoww/root[Jupyter用Teradata Vantage™モジュールインストールガイド] * link:https://docs.teradata.com/r/1YKutX2ODdO9ppo_fnguTA/root[Python用Teradata®パッケージユーザガイド] -* link:https://cloud.google.com/vertex-ai/docs/training/create-custom-container[Vertex AIのドキュメントです。学習用カスタムコンテナイメージの作成] -* link:https://cloud.google.com/vertex-ai/docs/workbench/user-managed/custom-container[Vertex AIのドキュメントです。カスタムコンテナを使用してユーザー管理型Notebookインスタンスを作成する] -* link:https://cloud.google.com/vertex-ai/docs/workbench/user-managed/create-new[Vertex AIのドキュメントです。ユーザーマネージドNotebookのインスタンスを作成する] +* link:https://cloud.google.com/vertex-ai/docs/training/create-custom-container[Vertex AIのドキュメントです。学習用カスタムコンテナイメージを作成します] +* link:https://cloud.google.com/vertex-ai/docs/workbench/user-managed/custom-container[Vertex AIのドキュメントです。カスタムコンテナを使用してユーザー管理型Notebookインスタンスを作成します] +* link:https://cloud.google.com/vertex-ai/docs/workbench/user-managed/create-new[Vertex AIのドキュメントです。ユーザーマネージドNotebookのインスタンスを作成します] -include::ROOT:partial$community_link.adoc[] +include::../partials/community_link.adoc[] diff --git a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-sagemaker.adoc b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-sagemaker.adoc index ca73a8658..96a599830 100644 --- a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-sagemaker.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-jupyter-extensions-with-sagemaker.adoc @@ -1,4 +1,4 @@ -= Teradata Jupyter Extentionsと SageMakerNotebookインスタンスの統合 += Teradata Jupyter Extentionsと SageMakerNotebookインスタンスを統合する :page-lang: ja :experimental: :page-author: Hailing Jiang @@ -28,7 +28,7 @@ SageMakerは、ライフサイクルコンフィギュレーションスクリ 1. Teradata Jupyter Extentionsパッケージのダウンロードする + -Linux版をhttps://downloads.teradata.com/download/tools/vantage-modules-for-jupyter からダウンロードし、S3バケットにアップロードしてください。Teradata Jupyterのカーネルとエクステンションを含むzipパッケージです。各エクステンションには2つのファイルがあり、名前に"_prebuilt "が付いているものがPIPでインストールできるプリビルドエクステンション、もう1つが "jupyter labextension "でインストールする必要があるソースエクステンションになります。プレビルド拡張を使用することをお勧めします。 +Linux版を https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter からダウンロードし、S3バケットにアップロードしてください。Teradata Jupyterのカーネルとエクステンションを含むzipパッケージです。各エクステンションには2つのファイルがあり、名前に"_prebuilt "が付いているものがPIPでインストールできるプリビルドエクステンション、もう1つが "jupyter labextension "でインストールする必要があるソースエクステンションになります。プレビルド拡張を使用することをお勧めします。 + 2. notebookインスタンスのライフサイクル設定の作成する @@ -139,4 +139,5 @@ image:cloud-guides/{page-image-directory}/sagemaker.notebook.start.png[デモNot * link:https://docs.aws.amazon.com/sagemaker/latest/dg/notebook-lifecycle-config.html[ライフサイクル構成スクリプトを使用したNotebook インスタンスのカスタマイズ] * link:https://github.com/aws-samples/amazon-sagemaker-notebook-instance-lifecycle-config-samples/blob/master/scripts/persistent-conda-ebs/on-create.sh[amazon sagemaker Notebook インスタンスのライフサイクル構成サンプル] + include::ROOT:partial$community_link.adoc[] diff --git a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-to-salesforce-using-amazon-appflow.adoc b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-to-salesforce-using-amazon-appflow.adoc index ff84dbff1..a4c87522e 100644 --- a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-to-salesforce-using-amazon-appflow.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-to-salesforce-using-amazon-appflow.adoc @@ -56,7 +56,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] ** Salesforce アカウントで、接続アプリのインストールが認証されている必要があります。これが無効になっている場合は、Salesforce 管理者にお問い合わせください。Amazon AppFlow で Salesforce 接続を作成した後、「Amazon AppFlow Embedded Login App」という名前の接続アプリが Salesforce アカウントにインストールされていることを確認します。 ** Amazon AppFlow Embedded Login App」のリフレッシュトークンポリシーは、「Refresh token is valid until revoked」に設定されている必要があります。そうでない場合、リフレッシュトークンの有効期限が切れるとフローが失敗します。 ** イベント駆動型のフロートリガーを使用するには、SalesforceのChange Data Captureを有効にする必要があります。セットアップから、クイック検索に「Change Data Capture」と入力します。 -** Salesforce アプリが IP アドレスの制限を実施している場合、Amazon AppFlow で使用するアドレスをホワイトリストに登録する必要があります。詳細については、Amazon Web Services General Reference のhttps://docs.aws.amazon.com/general/latest/gr/aws-ip-ranges.html[「AWS IP アドレス範囲」]を参照してください。 +** Salesforce アプリが IP アドレスの制限を実施している場合、Amazon AppFlow で使用するアドレスをホワイトリストに登録する必要があります。詳細については、Amazon Web Services General Reference の https://docs.aws.amazon.com/general/latest/gr/aws-ip-ranges.html[AWS IP アドレス範囲] を参照してください。 ** Salesforce のレコードを 100 万件以上転送する場合、Salesforce の複合フィールドを選択することはできません。Amazon AppFlow は転送に Salesforce Bulk API を使用するため、複合フィールドの転送は認証されません。 ** AWS PrivateLinkを使用してプライベート接続を作成するには、Salesforceアカウントで「メタデータの管理」と「外部接続の管理」の両方のユーザー権限を有効にする必要があります。プライベート接続は現在、us-east-1 および us-west-2 の AWS リージョンで利用可能です。 ** 履歴オブジェクトなど、更新できないSalesforceオブジェクトがあります。これらのオブジェクトについて、Amazon AppFlowは、スケジュールトリガー型のフローの増分エクスポート(「新しいデータのみを転送」オプション)をサポートしません。代わりに、「すべてのデータを転送する」オプションを選択し、適切なフィルタを選択して転送するレコードを制限することができます。 @@ -75,7 +75,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] このステップでは、Amazon AppFlowを使用してフローを作成します。この例では、 https://developer.salesforce.com/signup[Salesforce 開発者アカウント] を使用してSalesforceに接続します。 - https://console.aws.amazon.com/appflow[AppFlow コンソール]にアクセスし、AWSログイン認証でサインインし、 *Create flow*をクリックします。正しいリージョンにいること、Salesforceのデータを保存するためのバケットが作成されていることを確認します。 + https://console.aws.amazon.com/appflow[AppFlow コンソール] にアクセスし、AWSログイン認証でサインインし、 *Create flow* をクリックします。正しいリージョンにいること、Salesforceのデータを保存するためのバケットが作成されていることを確認します。 image:cloud-guides/{page-image-directory}/image3.png[ソーシャルメディア投稿のスクリーンショット 自動生成された説明,width=624,height=418] @@ -83,21 +83,21 @@ image:cloud-guides/{page-image-directory}/image3.png[ソーシャルメディア このステップでは、フローの基本情報を提供します。 - *フロー名* (例: _salesforce_) と *フローの説明(オプション)*を入力し、 *暗号化設定のカスタマイズ(詳細)* のチェックを外したままにします。*次へ*をクリックします。 + *フロー名* (例: _salesforce_) と *フローの説明(オプション)* を入力し、 *暗号化設定のカスタマイズ(詳細)* のチェックを外したままにします。*次へ* をクリックします。 ==== ステップ2. フローを構成する このステップでは、フローのソースと宛先に関する情報を提供します。この例では、ソースとして *_Salesforce_* を、宛先として *_Amazon S3_* を使用します。 -* *Source name*で _Salesforce_を選択し、*Choose Salesforce connection*で *_Create new connection_*を選択します。 +* *Source name* で _Salesforce_ を選択し、*Choose Salesforce connection*で * _Create new connection_*を選択します。 + image:cloud-guides/{page-image-directory}/image4.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=392] -* *Salesforce環境*と*データの暗号化*にデフォルトを使用する。接続に名前(例:_salesforce_)を付けて、 *続行*をクリックします。 +* *Salesforce環境* と *データの暗号化* にデフォルトを使用する。接続に名前(例:_salesforce_)を付けて、 *Continue* をクリックします。 + image:cloud-guides/{page-image-directory}/image5.png[携帯電話のスクリーンショット 自動生成された説明,width=544,height=327] -* salesforceのログインウィンドウで、*Username*と*Password*を入力します。クリックする *ログイン* +* salesforceのログインウィンドウで、 *Username* と *Password* を入力します。 *ログイン* をクリックします。 + image:cloud-guides/{page-image-directory}/image6.png[携帯電話のスクリーンショット 自動生成された説明,width=477,height=377] @@ -105,17 +105,17 @@ image:cloud-guides/{page-image-directory}/image6.png[携帯電話のスクリー + image:cloud-guides/{page-image-directory}/image7.png[携帯電話のスクリーンショット 自動生成された説明,width=473,height=383] -* AppFlow の*Configure flow* ウィンドウに戻り、 *Salesforceオブジェクト*を使用し、Salesforce オブジェクトとして _Account_ を選択します。 +* AppFlow の*Configure flow* ウィンドウに戻り、 *Salesforceオブジェクト* を使用し、Salesforce オブジェクトとして _Account_ を選択します。 + image:cloud-guides/{page-image-directory}/image8.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=390] + image:cloud-guides/{page-image-directory}/image9.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=389] -* *Destination name*として_Amazon S3_使用します。link:#prerequisites[先ほど]作成した、データを保存するバケット(例:_ptctsoutput_)を選択します。 +* *Destination name* として _Amazon S3_ を使用します。 link:#prerequisites[先ほど] 作成した、データを保存するバケット(例:_ptctsoutput_)を選択します。 + image:cloud-guides/{page-image-directory}/image10.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=355] -* *フロートリガー* を _Run on demand_にします。 *Next*をクリックします。 +* *Flow trigger* を _Run on demand_ にします。 *Next* をクリックします。 + image:cloud-guides/{page-image-directory}/image11.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=344] @@ -124,7 +124,7 @@ image:cloud-guides/{page-image-directory}/image11.png[携帯電話のスクリ このステップでは、データがソースから宛先に転送される方法を決定します。 * *マッピング方法* -として、_手動でフィールドをマッピングする_を使用します* 簡単のため、 *送信元から送信先へのマッピング*には_Map all fields directly_ を選択します。 +として、_手動でフィールドをマッピングする_ を使用します* 簡単のため、 *送信元から送信先へのマッピング* には _Map all fields directly_ を選択します。 + image:cloud-guides/{page-image-directory}/image12.png[携帯電話のスクリーンショット 自動生成された説明,width=623,height=355] + @@ -132,19 +132,19 @@ image:cloud-guides/{page-image-directory}/image12.png[携帯電話のスクリ + この例では、チェックボックスは選択されない。 -* *_Validations_*では、「_Billing Address_」が含まれていないレコードを無視する条件を追加します(オプション)。 *Next*をクリックします。 +* *_Validations_* では、「_Billing Address_」が含まれていないレコードを無視する条件を追加します(オプション)。 *Next* をクリックします。 + image:cloud-guides/{page-image-directory}/image13.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=132] ==== ステップ4:フィルタの追加 -転送するレコードを決定するためのフィルタを指定することができます。この例では、削除されたレコードをフィルタリングする条件を追加します(オプション)。*Next*をクリックします。 +転送するレコードを決定するためのフィルタを指定することができます。この例では、削除されたレコードをフィルタリングする条件を追加します(オプション)。*Next* をクリックします。 image:cloud-guides/{page-image-directory}/image14.png[携帯電話のスクリーンショット 自動生成された説明,width=624,height=179] ==== ステップ 5. レビューと作成 -入力したすべての情報を確認します。必要であれば修正します。*Create flow*をクリックします 。 +入力したすべての情報を確認します。必要であれば修正します。*Create flow* をクリックします 。 フローが作成されると、フロー情報とともにフロー作成成功のメッセージが表示されます。 @@ -174,11 +174,11 @@ image:cloud-guides/{page-image-directory}/image17.png[ソーシャルメディ image:cloud-guides/{page-image-directory}/image18.png[ソーシャルメディア投稿のスクリーンショット 自動生成された説明,width=548,height=285] -=== NOSを使ったデータの探索 +=== NOSを使ったデータを探索する Native Object Storeには、Amazon S3内のデータを探索 分析するための機能が組み込まれています。ここでは、NOSのよく使われる機能をいくつか列挙します。 -==== 外部テーブルの作成 +==== 外部テーブルを作成する 外部テーブルを使用すると、Vantage Advanced SQL Engine 内で外部データを簡単に参照できるようになり、構造化されたリレーショナル形式でデータを利用できるようになります。 @@ -243,11 +243,11 @@ JSONデータには、レコードごとに異なる属性が含まれること |SELECT DISTINCT * FROM JSON_KEYS (ON (SELECT payload FROM salesforce)) AS j; ---- -部分的に出力 +部分出力 image:cloud-guides/{page-image-directory}/image21.png[携帯電話のスクリーンショット 自動生成された説明,width=196,height=225] -==== ビューの作成 +==== ビューを作成する ビューは、ペイロード属性に関連する名前を単純化し、オブジェクトストアのデータに対して実行可能なSQLを簡単にコーディングできるようにし、外部テーブルのLocation参照を隠して通常の列のように見えるようにすることができます。 @@ -291,7 +291,7 @@ REPLACE VIEW salesforceView AS ( SELECT * FROM salesforceView; ---- -部分的に出力 +部分出力 image:cloud-guides/{page-image-directory}/image22.png[自動的に生成されたコンピューターの説明を含むイメージ,width=624,height=98] @@ -662,7 +662,7 @@ USING このステップでは、フローの送信元と送信先に関する情報を提供します。この例では、ソースとして *_Amazon S3_* を、宛先として *_Salesforce_* を使用します。 * *Source details*は、 _Amazon S3_を選択し、CSVファイルを書き込んだバケットを選択します(例:vantagecsv)。 -* *Destination details*は、_Salesforce_を選択し、*Choose Salesforce connection*のドロップダウンリストでStep1で作成した接続を使用し、_Lead_として *Choose Salesforce object*を選択します。 +* *Destination details* は、_Salesforce_ を選択し、*Choose Salesforce connection* のドロップダウンリストでStep1で作成した接続を使用し、*Choose Salesforce object* として_Lead_ を選択します。 * *Error handling*の場合は、デフォルトの_Stop the current flow run_を使用する。 * *Flow trigger* は _Run on demand_です。 *Next*をクリックします。 @@ -671,8 +671,8 @@ USING このステップでは、ソースからデスティネーションへのデータ転送の方法を決定します。 * *Mapping method* -として、_Manually map fields_を使用します* *Destination record preference* -として、_Insert new records (default)_を使用します* *送信元から送信先へのマッピング*には、次のマッピングを使用します + として、_Manually map fields_ を使用します* *Destination record preference* + として、_Insert new records (default)_ を使用します* *送信元から送信先へのマッピング* には、次のマッピングを使用します + image:cloud-guides/{page-image-directory}/image43.png[グラフィカル ユーザー インターフェース, application, table Description automatically generated,width=624,height=396] + @@ -684,13 +684,13 @@ image:cloud-guides/{page-image-directory}/image44.png[Image,width=624,height=40] 転送するレコードを決定するためのフィルタを指定することができます。この例では、フィルターは追加されません。*Next* をクリックします。 -==== ステップ5. レビューと作成 +==== ステップ5. レビューして作成する 入力したすべての情報を確認します。必要であれば修正します。*フローの作成*をクリックします 。 フローが作成されると、フロー情報とともにフロー作成成功のメッセージが表示されます。 -==== フローの実行 +==== フローを実行する 右上の *フローの実行* をクリックします。 @@ -704,7 +704,7 @@ Salesforceのページを参照すると、新しいリードTom Johnsonが追 image:cloud-guides/{page-image-directory}/image46.png[グラフィカル ユーザー インターフェース, application Description automatically generated,width=624,height=288] -== クリーンアップ(オプション) +== クリーンアップする(オプション) Salesforce データの使用が完了したら、使用したリソースに対して AWS アカウント (https://aws.amazon.com/appflow/pricing/[AppFlow]、 Amazon https://aws.amazon.com/s3/pricing/[S3]、 https://www.teradata.com/Cloud/AWS/Do-it-Yourself/Pricing[Vantage] 、 https://aws.amazon.com/ec2/pricing/[VM]など) に請求されないように、以下の手順を実行します。 diff --git a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-with-google-cloud-data-catalog.adoc b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-with-google-cloud-data-catalog.adoc index 1a15a98cf..536147e0f 100644 --- a/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-with-google-cloud-data-catalog.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/integrate-teradata-vantage-with-google-cloud-data-catalog.adoc @@ -12,7 +12,7 @@ == 概要 -この記事では、https://github.com/GoogleCloudPlatform/datacatalog-connectors-rdbms/tree/master/google-datacatalog-teradata-connector[Data Catalog Teradata Connector on GitHub]を使用して Teradata VantageとGoogle Cloud Data Catalogを接続し、Data Catalog経由でVantageテーブルのメタデータを探索する手順について説明します。 +この記事では、 https://github.com/GoogleCloudPlatform/datacatalog-connectors-rdbms/tree/master/google-datacatalog-teradata-connector[Data Catalog Teradata Connector on GitHub] を使用して Teradata VantageとGoogle Cloud Data Catalogを接続し、Data Catalog経由でVantageテーブルのメタデータを探索する手順について説明します。 image:cloud-guides/{page-image-directory}/image2.png[図の説明が自動的に生成される,width=525,height=242] @@ -40,13 +40,13 @@ Teradata Vantage の詳細については、 https://docs.teradata.com/home[ド * Teradata Vantageインスタンスへのアクセス。 + -include::ROOT:partial$vantage_clearscape_analytics.adoc[] +include::../partials/vantage_clearscape_analytics.adoc[] * Data Catalog 管理者ロールを持つ **https://support.google.com/accounts/answer/27441?hl=en[Google Service Account] ** * アカウント用にhttps://cloud.google.com/resource-manager/docs/creating-managing-projects[*作成されたCloud Consoleプロジェクト*] (例、partner-integration-lab) * 課金が有効になっている * Google Cloud SDKの https://cloud.google.com/sdk/docs/install[インストール] と https://cloud.google.com/sdk/docs/initializing[初期化] -されている* https://www.python.org/downloads/[Python ]が インストールされている -* https://pip.pypa.io/en/stable/installation/[Pip]ががインストールされている +されている* https://www.python.org/downloads/[Python ] がインストールされている +* https://pip.pypa.io/en/stable/installation/[Pip] がインストールされている == 手順 @@ -61,13 +61,14 @@ include::ROOT:partial$vantage_clearscape_analytics.adoc[] + image:cloud-guides/{page-image-directory}/image3.png[グラフィカル ユーザー インターフェース, text, application Description automatically generated,width=483,height=472] -* 検索ボックスに _Data Catalog_ を入力し、 *Google Cloud Data Catalog API*をクリックし、 *ENABLE* -をクリックします+ +* 検索ボックスに _Data Catalog_ を入力し、 *Google Cloud Data Catalog API* をクリックし、 *ENABLE* + をクリックします ++ image:cloud-guides/{page-image-directory}/image4.png[グラフィカル ユーザー インターフェース, text, application, email Description automatically generated,width=624,height=212] === Teradata Data Catalog コネクタをインストールする -Teradata Data Catalog コネクタは https://github.com/GoogleCloudPlatform/datacatalog-connectors-rdbms/tree/master/google-datacatalog-teradata-connector[GitHub]で公開されています。このコネクタは Python で記述されています。 +Teradata Data Catalog コネクタは https://github.com/GoogleCloudPlatform/datacatalog-connectors-rdbms/tree/master/google-datacatalog-teradata-connector[GitHub] で公開されています。このコネクタは Python で記述されています。 * 以下のコマンドを実行し、gcloudを認証して、Googleのユーザー認証でCloud Platformにアクセスできるようにします。 + @@ -76,7 +77,7 @@ Teradata Data Catalog コネクタは https://github.com/GoogleCloudPlatform/dat gcloud auth login ---- -* Googleのログインページが開くので、Googleアカウントを選択し、次のページで_Allow_をクリックします。 +* Googleのログインページが開くので、Googleアカウントを選択し、次のページで _Allow_ をクリックします。 * 次に、デフォルトプロジェクトの設定がまだの場合は設定します。 + diff --git a/modules/ROOT/pages/ja/cloud-guides/sagemaker-with-teradata-vantage.adoc b/modules/ROOT/pages/ja/cloud-guides/sagemaker-with-teradata-vantage.adoc index de8cd9262..d3e478d46 100644 --- a/modules/ROOT/pages/ja/cloud-guides/sagemaker-with-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/sagemaker-with-teradata-vantage.adoc @@ -44,7 +44,7 @@ image::cloud-guides/{page-image-directory}/create.notebook.png[Notebookインス + image::cloud-guides/{page-image-directory}/open.notebook.instance.png[Notebook インスタンスを開く] -3. `新規作成 -> conda_python3`をクリックして新規ファイルを起動します。 +3. `New -> conda_python3` をクリックして新規ファイルを起動します。 + image::cloud-guides/{page-image-directory}/start.new.file.png[新しいファイルを開始する] @@ -66,7 +66,7 @@ import pandas as pd import boto3, os ---- -6. 新しいセルで、Teradata Vantageに接続します。``、 ``、 ``はVantageの環境にあわせて置き換えてください。 +6. 新しいセルで、Teradata Vantageに接続します。``、 ``、 `` はVantageの環境にあわせて置き換えてください。 + [source, python] ---- @@ -102,19 +102,19 @@ boto3.Session().resource('s3').Bucket(bucket).Object(os.path.join(prefix, localF == モデルのトレーニング -1. 左メニューの `Training`の下にある `Training jobs` を選択し、 `Create training job`をクリックします。 +1. 左メニューの `Training` の下にある `Training jobs` を選択し、 `Create training job` をクリックします。 + image::cloud-guides/{page-image-directory}/create.training.job.png[Create training job] -2. `トレーニングジョブの作成` ウィンドウで、`ジョブ名`(例: `xgboost-bank`) を入力しIAMロールの`新しいロールを作成`します。Amazon S3 バケットに `Any S3バケット` 、 `ロールの作成`に +2. `トレーニングジョブの作成` ウィンドウで、`ジョブ名` (例: `xgboost-bank` ) を入力しIAMロールの `新しいロールを作成` します。Amazon S3 バケットに `Any S3バケット` 、 `ロールの作成` に + を選択します。image::cloud-guides/{page-image-directory}/create.iam.role.png[IAMロールの作成,width=50%] -3. `Create training job` ウィンドウに戻りアルゴリズムとして`XGBoost`を使用します。 +3. `Create training job` ウィンドウに戻りアルゴリズムとして `XGBoost` を使用します。 + -image::cloud-guides/{page-image-directory}/choose.an.algorithm.png[Choose an algorithm,width=50%] +image::cloud-guides/{page-image-directory}/choose.an.algorithm.png[アルゴリズムの選択,width=50%] -4. インスタンスタイプはデフォルトの`ml.m4.xlarge`、インスタンスあたりの追加ストレージボリュームは30GBを使用します。これは短いトレーニングジョブで10分以上はかからないはずです。 +4. インスタンスタイプはデフォルトの `ml.m4.xlarge`、インスタンスあたりの追加ストレージボリュームは30GBを使用します。これは短いトレーニングジョブで10分以上はかからないはずです。 + image::cloud-guides/{page-image-directory}/resource.configuration.png[リソースを構成,width=50%] @@ -131,11 +131,11 @@ subsample=0.8 objective='binary:logistic' ---- -6. `Input data configuration`には学習データを保存したAmazon S3バケットを入力します。Input modeは `File`です。Content typeは `csv`です。`S3 location` はファイルのアップロード先です。 +6. `Input data configuration` には学習データを保存したAmazon S3バケットを入力します。Input modeは `File` です。Content typeは `csv` です。`S3 location` はファイルのアップロード先です。 + image::cloud-guides/{page-image-directory}/input.data.configuration.png[Input data configuration,width=50%] -7. `Output data configuration`には出力データを保存するパスを入力します。 +7. `Output data configuration` には出力データを保存するパスを入力します。 + image::cloud-guides/{page-image-directory}/output.data.configuration.png[Output data configuration,width=50%] @@ -149,19 +149,19 @@ image::cloud-guides/{page-image-directory}/output.data.configuration.png[Output === モデルの作成 -1. 左パネルの [ `Inference` の下にある `Models` を選択し、 `Create model`を選択します。モデル名 (例: `xgboost-bank`) を入力し前のステップで作成したIAMロールを選択します。 -2. `コンテナ定義1`では`433757028032.dkr.ecr.us-west-2.amazonaws.com/xgboost:latest` を `Location of inference code image`として使用します。`Location of model artifacts` には学習ジョブの出力パスを指定します。 +1. 左パネルの [ `Inference` の下にある `Models` を選択し、 `Create model` を選択します。モデル名 (例: `xgboost-bank`) を入力し前のステップで作成したIAMロールを選択します。 +2. `コンテナ定義1` では `433757028032.dkr.ecr.us-west-2.amazonaws.com/xgboost:latest` を `Location of inference code image` として使用します。`Location of model artifacts` には学習ジョブの出力パスを指定します。 + image::cloud-guides/{page-image-directory}/container.definition.1.png[コンテナ定義1,,width=50%] -3. 他はデフォルトのまま`モデルを作成`します。 +3. 他はデフォルトのまま `モデルを作成` します。 -=== エンドポイントコンフィギュレーションを作成する +=== エンドポイントコンフィギュレーションの作成 -1. 作成したモデルを選択し、 `Create endpoint configuration`をクリックします。 +1. 作成したモデルを選択し、 `Create endpoint configuration` をクリックします。 + image::cloud-guides/{page-image-directory}/create.endpoint.configuration.png[Create endpoint configuration] -2. 名前(例: `xgboost-bank`)を記入しその他はdefaultを使用します。モデル名とトレーニングジョブは自動的に入力されるはずです。 `Create endpoint configuration`をクリックします。 +2. 名前(例: `xgboost-bank`)を記入しその他はdefaultを使用します。モデル名とトレーニングジョブは自動的に入力されるはずです。 `Create endpoint configuration` をクリックします。 === エンドポイントの作成 @@ -172,11 +172,11 @@ image::cloud-guides/{page-image-directory}/create.endpoint.png[Create endpoint] 2. 名前 (例: `xgboost-bank`)を入力し、`既存のエンドポイント構成を使用する`: を選択します。image::{page-image-directory}/attach.endpoint.configuration.png[エンドポイント構成を添付する] -3. 前回の手順で作成したエンドポイント構成を選択し`エンドポイント構成の選択`をクリックします。 +3. 前回の手順で作成したエンドポイント構成を選択し `エンドポイント構成の選択` をクリックします。 + image::cloud-guides/{page-image-directory}/select.endpoint.configuration.png[エンドポイント構成の選択,width=50%] -4. 他のすべてをデフォルトのままにして`エンドポイントを作成`をクリックします。 +4. 他のすべてをデフォルトのままにして `エンドポイントを作成` をクリックします。 これでモデルがエンドポイントにデプロイされクライアントアプリケーションから利用できるようになります。 diff --git a/modules/ROOT/pages/ja/cloud-guides/use-teradata-vantage-with-azure-machine-learning-studio.adoc b/modules/ROOT/pages/ja/cloud-guides/use-teradata-vantage-with-azure-machine-learning-studio.adoc index 8f47c5927..5c9f37376 100644 --- a/modules/ROOT/pages/ja/cloud-guides/use-teradata-vantage-with-azure-machine-learning-studio.adoc +++ b/modules/ROOT/pages/ja/cloud-guides/use-teradata-vantage-with-azure-machine-learning-studio.adoc @@ -22,9 +22,9 @@ image:cloud-guides/{page-image-directory}/image2.png[Image,width=534,height=118] * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* Azureサブスクリプションまたはhttps://azure.microsoft.com/free/[無料アカウント] -作成* https://docs.microsoft.com/en-us/azure/machine-learning/studio/create-workspace[Azure ML Studio ワークスペース] -* (オプション) https://docs.microsoft.com/en-us/sql/samples/adventureworks-install-configure?view=sql-server-2017[AdventureWorks DW 2016データベース] のダウンロード(_「モデルの学習」_ セクションなど) +* Azureサブスクリプションまたは https://azure.microsoft.com/free/[無料アカウント] + の作成* https://docs.microsoft.com/en-us/azure/machine-learning/studio/create-workspace[Azure ML Studio ワークスペース] +* (オプション) https://docs.microsoft.com/en-us/sql/samples/adventureworks-install-configure?view=sql-server-2017[AdventureWorks DW 2016データベース] のダウンロード( _「モデルの学習」_ セクションなど) ** _「vTargetMail」_ テーブルを SQL Server から Teradata Vantageに復元およびコピーします。 @@ -33,7 +33,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] === 初期設定 -* 現在利用可能な格納場所にストレージ アカウントがあり、このスタート ガイドの*Web service plan* に *DEVTEST Standard* を選択していない限り、ML Studio ワークスペースの作成中に、新規のストレージ アカウントを作成する必要がある場合があります。 https://portal.azure.com/[Azure ポータル]にログオンし、ストレージ アカウントを開き、 *コンテナ* がまだ存在しない場合は作成します。 +* 現在利用可能な格納場所にストレージ アカウントがあり、このスタート ガイドの *Web service plan* に *DEVTEST Standard* を選択していない限り、ML Studio ワークスペースの作成中に、新規のストレージ アカウントを作成する必要がある場合があります。 https://portal.azure.com/[Azure ポータル] にログオンし、ストレージ アカウントを開き、 *コンテナ* がまだ存在しない場合は作成します。 + image:cloud-guides/{page-image-directory}/image3.png[Image,width=520,height=126] @@ -41,7 +41,7 @@ image:cloud-guides/{page-image-directory}/image3.png[Image,width=520,height=126] + image:cloud-guides/{page-image-directory}/image4.png[Image,width=448,height=182] -* 最後に、*Configuration*プロパティを開き、*_'Secure transfer required'_*を*_Disabled_*に設定して、ML Studioインポートデータモジュールがブロブストレージアカウントにアクセスできるようにする。 +* 最後に、*Configuration* プロパティを開き、*_'Secure transfer required'_* を *_Disabled_* に設定して、ML Studioインポートデータモジュールがブロブストレージアカウントにアクセスできるようにする。 + image:cloud-guides/{page-image-directory}/image5.png[Image,width=449,height=78] @@ -49,17 +49,17 @@ image:cloud-guides/{page-image-directory}/image5.png[Image,width=449,height=78] ML Studioにデータを取り込むために、まずはTeradata VantageからAzure Blob Storageにデータをロードする必要があります。ML Jupyter Notebookを作成し、Teradataに接続するためのPythonパッケージをインストールし、Azure Blob Storageにデータを保存することにします。 - https://portal.azure.com/[Azure ポータル]にログオンし、 *ML Studioワークスペース* に移動して、 https://studio.azureml.net/[Machine Learning Studio を起動]し 、 *サインイン*します。 + https://portal.azure.com/[Azure ポータル] にログオンし、 *ML Studioワークスペース* に移動して、 https://studio.azureml.net/[Machine Learning Studio を起動] し 、 *サインイン*します。 -1. 以下の画面が表示されます。 *Notebooks* をクリックして、正しいリージョン/ワークスペースにいることを確認し、Notebook の*New* +1. 以下の画面が表示されます。 *Notebooks* をクリックして、正しいリージョン/ワークスペースにいることを確認し、Notebook の *New* + をクリックします。image:cloud-guides/{page-image-directory}/image6.png[Image,width=519,height=250] -2. *Python3*を選択し、Notebook インスタンスに*名前を付け* ます。 +2. *Python3* を選択し、Notebook インスタンスに *名前を付け* ます。 + image:cloud-guides/{page-image-directory}/image7.png[Image,width=524,height=187] -3. Jupyter Notebook インスタンスに、 https://pypi.org/project/teradataml/[Teradata Vantage Python package for Advanced Analytics]をインストールします。 +3. Jupyter Notebook インスタンスに、 https://pypi.org/project/teradataml/[Teradata Vantage Python package for Advanced Analytics] をインストールします。 + [source, python] ---- @@ -68,7 +68,7 @@ pip install teradataml + NOTE: Microsoft Azure ML StudioとTeradata Vantage Pythonパッケージの間の検証は行われていません。 -4. https://pypi.org/project/azure-storage-blob/[Microsoft Azure Storage Blob Client Library for Python]をインストールします。 +4. https://pypi.org/project/azure-storage-blob/[Microsoft Azure Storage Blob Client Library for Python] をインストールします。 + [source, python] ---- @@ -137,17 +137,18 @@ image:cloud-guides/{page-image-directory}/image17.png[Image,width=618,height=118 === モデルの学習 -既存の https://docs.microsoft.com/en-us/azure/sql-data-warehouse/sql-data-warehouse-get-started-analyze-with-azure-machine-learning[「Azure Machine Learning を使用したデータの分析」] の記事を使って、Azure Blob Storageのデータに基づいて予測型機械学習モデルを構築します。顧客が自転車を購入する可能性があるかどうかを予測することで、自転車店であるアドベンチャーワークスのためのターゲットマーケティングキャンペーンを構築する予定です。 +既存の https://docs.microsoft.com/en-us/azure/sql-data-warehouse/sql-data-warehouse-get-started-analyze-with-azure-machine-learning[Azure Machine Learning を使用したデータの分析] の記事を使って、Azure Blob Storageのデータに基づいて予測型機械学習モデルを構築します。顧客が自転車を購入する可能性があるかどうかを予測することで、自転車店であるアドベンチャーワークスのためのターゲットマーケティングキャンペーンを構築する予定です。 ==== データのインポート データは、上のセクションでコピーした `vTargetMail.csv` という Azure Blob Storage ファイルにあります。 -1.. https://studio.azureml.net/[Azure Machine Learning Studio] にサインインし、 *Experiments*をクリックします。 - 2.. 画面左下の *+NEW* をクリックし、 *Blank Experiment*を選択します。 - 3.. 実験の名前として「Targeted Marketing」を入力します。 -】 4.. *Data Input and output*の下にある*Import data*モジュールをモジュール ペインからキャンバスにドラッグします。 - 5.. [プロパティ] ペインで Azure Blob Storage の詳細 (アカウント名、キー、コンテナ名) を指定します。 +1.. https://studio.azureml.net/[Azure Machine Learning Studio] にサインインし、 *Experiments* をクリックします。 +2.. 画面左下の *+NEW* をクリックし、 *Blank Experiment* を選択します。 +3.. 実験の名前として「Targeted Marketing」を入力します。 +4.. *Data Input and output* の下にある *Import data* モジュールをモジュール ペインからキャンバスにドラッグします。 +5.. [プロパティ] ペインで Azure Blob Storage の詳細 (アカウント名、キー、コンテナ名) を指定します。 + experimentキャンバスの下にある *Run* をクリックして、実験を実行します。 @@ -172,7 +173,7 @@ image:cloud-guides/{page-image-directory}/image21.png[Image,width=443,height=372 ==== モデルの構築 -80%は機械学習モデルの学習用、20%はモデルのテスト用としてデータを80対20に分割します。この2値分類問題には、「2クラス」アルゴリズムを使用します。 +80%は機械学習モデルの学習用、20%はモデルのテスト用としてデータを80対20に分割します。この2値分類問題には、「Two-Class」アルゴリズムを使用します。 1. *SplitData* モジュールをキャンバスにドラッグし、「Select Columns in DataSet」で接続します。 2. プロパティペインで「Fraction of rows in the first output dataset」に「0.8」を入力します。 @@ -180,11 +181,11 @@ image:cloud-guides/{page-image-directory}/image21.png[Image,width=443,height=372 image:cloud-guides/{page-image-directory}/image22.png[Image,width=399,height=336] 3. *Two-Class Boosted Decision Tree* モジュールを検索し、キャンバスにドラッグします。 -4. *Train Model*モジュールを検索してキャンバスにドラッグし、*Two-Class Boosted Decision Tree*(MLアルゴリズム)モジュールと*Split* *Data*(アルゴリズムをトレーニングするためのデータ)モジュールに接続して入力を指定する。 +4. *Train Model* モジュールを検索してキャンバスにドラッグし、*Two-Class Boosted Decision Tree* (MLアルゴリズム)モジュールと *Split* *Data* (アルゴリズムをトレーニングするためのデータ)モジュールに接続して入力を指定する。 + image:cloud-guides/{page-image-directory}/image23.png[Image,width=396,height=333] -5. 次に、[プロパティ]ペインで *Launch column selector* をクリックします。予測するカラムとして*BikeBuyer*カラムを選択します。 +5. 次に、[プロパティ]ペインで *Launch column selector* をクリックします。予測するカラムとして *BikeBuyer* カラムを選択します。 + image:cloud-guides/{page-image-directory}/image24.png[Image,width=396,height=330] diff --git a/modules/ROOT/pages/ja/elt/transforming-external-data-loaded-via-airbyte-in-teradata-vantage-using-dbt.adoc b/modules/ROOT/pages/ja/elt/transforming-external-data-loaded-via-airbyte-in-teradata-vantage-using-dbt.adoc index d37fee0ed..ac06597fd 100644 --- a/modules/ROOT/pages/ja/elt/transforming-external-data-loaded-via-airbyte-in-teradata-vantage-using-dbt.adoc +++ b/modules/ROOT/pages/ja/elt/transforming-external-data-loaded-via-airbyte-in-teradata-vantage-using-dbt.adoc @@ -14,7 +14,7 @@ このチュートリアルでは、Teradata Vantage で link:https://docs.getdbt.com/docs/introduction[dbt (Data Build Tool),window="_blank"] を使用して link:https://github.com/airbytehq/airbyte[、Airbyte,window="_blank" ] (オープンソースの抽出ロード ツール) を介して外部データ ロードを変換する方法を説明します。 -このチュートリアルは 、元の link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop tutorial,window="_blank" ]に基づいていますが、 `dbt seed` コマンドを使用する代わりに、Airbyte を使用して Jaffle Shop データセットが Google Sheets から Teradata Vantage にロードされるという小さな変更が加えられています。airbyte を通じてロードされたデータは、以下の図に示すように JSON カラムに含まれています。 +このチュートリアルは 、元の link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop tutorial,window="_blank" ] に基づいていますが、 `dbt seed` コマンドを使用する代わりに、Airbyte を使用して Jaffle Shop データセットが Google Sheets から Teradata Vantage にロードされるという小さな変更が加えられています。airbyte を通じてロードされたデータは、以下の図に示すように JSON カラムに含まれています。 image::elt/{dir}/raw_data_vantage_dbeaver.png[Teradata Vantageの生データ, width=75%] @@ -22,17 +22,17 @@ image::elt/{dir}/raw_data_vantage_dbeaver.png[Teradata Vantageの生データ, w * Teradata Vantageインスタンスへのアクセス。 + -include::ROOT:partial$vantage_clearscape_analytics.adoc[] -* サンプルデータ: サンプルデータ link:https://docs.google.com/spreadsheets/d/1-R4F3q8J9KDnFRWpiT3Ysp1RlOoUu3PeQR7xDeLxFts/edit#gid=42273685[Jaffle Shop Dataset, window="_blank"]は、 Google スプレッドシートにあります。 +include::../partials/vantage_clearscape_analytics.adoc[] +* サンプルデータ: サンプルデータ link:https://docs.google.com/spreadsheets/d/1-R4F3q8J9KDnFRWpiT3Ysp1RlOoUu3PeQR7xDeLxFts/edit#gid=42273685[Jaffle Shop Dataset, window="_blank"] は、 Google スプレッドシートにあります。 * 参照 dbt プロジェクト リポジトリ: link:https://github.com/Teradata/airbyte-dbt-jaffle[Jaffle Project with Airbyte., window="_blank"] * Python 3.7、3.8、3.9、3.10、または3.11がインストールされている。 == サンプルデータのローディング -* link:https://quickstarts.teradata.com/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.html[Airbyte tutorial, window="_blank"]の手順に従います。Airbyte チュートリアルで参照されるデフォルトのデータセットではなく、link:https://docs.google.com/spreadsheets/d/1-R4F3q8J9KDnFRWpiT3Ysp1RlOoUu3PeQR7xDeLxFts/edit#gid=42273685[Jaffle Shop spreadsheet]からデータをロードするようにしてください。また、Teradata宛先の`Default Schema`を`airbyte_jaffle_shop`に設定する。 +* link:https://quickstarts.teradata.com/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.html[Airbyte tutorial, window="_blank"] の手順に従います。Airbyte チュートリアルで参照されるデフォルトのデータセットではなく、link:https://docs.google.com/spreadsheets/d/1-R4F3q8J9KDnFRWpiT3Ysp1RlOoUu3PeQR7xDeLxFts/edit#gid=42273685[Jaffle Shop spreadsheet] からデータをロードするようにしてください。また、Teradata宛先の `Default Schema` を `airbyte_jaffle_shop` に設定する。 [NOTE] ==== -AirbyteでTeradata宛先を設定すると、`Default Schema`をリクエストされます。`Default Schema`を`airbyte_jaffle_shop`に設定する。 +AirbyteでTeradata宛先を設定すると、`Default Schema` をリクエストされます。`Default Schema` を `airbyte_jaffle_shop` に設定する。 ==== == プロジェクトのクローンを作成する @@ -75,15 +75,15 @@ dbt init ---- + -dbt プロジェクト ウィザードでは、プロジェクト名と、プロジェクトで使用するデータベース管理システムの入力を求められます。このデモでは、プロジェクト名を`dbt_airbyte_demo`と定義します。dbt-teradataコネクタを使用しているため、使用可能なデータベース管理システムはTeradataのみです。 +dbt プロジェクト ウィザードでは、プロジェクト名と、プロジェクトで使用するデータベース管理システムの入力を求められます。このデモでは、プロジェクト名を `dbt_airbyte_demo` と定義します。dbt-teradataコネクタを使用しているため、使用可能なデータベース管理システムはTeradataのみです。 + image::elt/{dir}/dbt_init_project_name.png[プロジェクト名プロンプト, width=75%] + image::elt/{dir}/dbt_init_database_name.png[データベース名プロンプト, width=75%] -* `$HOME/.dbt`ディレクトリにある`profiles.yml`ファイルを設定します。`profiles.yml`ファイルが存在しない場合は、新しいファイルを作成できます。 -* Teradataインスタンスの`HOST`、`Username`、`Password`に合わせて、`server`、`username`、`password`をそれぞれ調整します。 -* この構成では、`schema`はサンプルデータを含むデータベースを表し、この場合は、Airbyte`airbyte_jaffle_shop`で定義したデフォルト スキーマです。 +* `$HOME/.dbt` ディレクトリにある `profiles.yml` ファイルを設定します。`profiles.yml` ファイルが存在しない場合は、新しいファイルを作成できます。 +* Teradataインスタンスの `HOST`、`Username`、`Password` に合わせて、`server`、`username`、`password` をそれぞれ調整します。 +* この構成では、`schema` はサンプルデータを含むデータベースを表し、この場合は、Airbyte `airbyte_jaffle_shop` で定義したデフォルト スキーマです。 + [source, yaml, id="dbt_first_config", role="emits-gtm-events"] ---- @@ -100,14 +100,14 @@ dbt_airbyte_demo: ---- -* `profiles.yml`ファイルの準備ができたら、設定を検証できます。dbt プロジェクト フォルダに移動し、以下のコマンドを実行します。 +* `profiles.yml` ファイルの準備ができたら、設定を検証できます。dbt プロジェクト フォルダに移動し、以下のコマンドを実行します。 + [source, bash] ---- dbt debug ---- + -デバッグ コマンドがエラーを返した場合は、 `profiles.yml`のコンテンツに問題がある可能性があります。設定が正しければ、次のメッセージが表示されます。 `All checks passed!` +デバッグ コマンドがエラーを返した場合は、 `profiles.yml` のコンテンツに問題がある可能性があります。設定が正しければ、次のメッセージが表示されます。 `All checks passed!` + image::elt/{dir}/dbt_debug.png[dbt debug output, width=75%] @@ -176,8 +176,7 @@ orders 1--* payments == dbt の変換 [NOTE] ==== -以下で詳しく説明する変換を含む完全な dbt プロジェクトは link:https://github.com/Teradata/airbyte-dbt-jaffle[Airbyte用いたJaffle プロジェクト。,window="_blank"] -にあります +以下で詳しく説明する変換を含む完全な dbt プロジェクトは link:https://github.com/Teradata/airbyte-dbt-jaffle[Airbyte用いたJaffle プロジェクト,window="_blank"] にあります。 ==== 参照 dbt プロジェクトは 2 つの型の変換を実行します。 @@ -203,20 +202,24 @@ orders 1--* payments すべての dbt プロジェクトと同様に、フォルダ `models` には、プロジェクトまたは個々のモデル レベルでの対応する構成に従って、プロジェクトがテーブルまたはビューとしてマテリアライズドするデータ モデルが含まれています。 -モデルは、データ ウェアハウス/レイクの編成における目的に応じて、さまざまなフォルダに編成できます。一般的なフォルダ レイアウトには、 `staging`のフォルダ、 `core`のフォルダ、および `marts`のフォルダが含まれます。この構造は、dbt の動作に影響を与えることなく簡素化できます。 +モデルは、データ ウェアハウス/レイクの編成における目的に応じて、さまざまなフォルダに編成できます。一般的なフォルダ レイアウトには、 `staging` のフォルダ、 `core` のフォルダ、および `marts` のフォルダが含まれます。この構造は、dbt の動作に影響を与えることなく簡素化できます。 === ステージングモデル -オリジナルの link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop チュートリア,window="_blank"] プロジェクトのデータは、dbt の`seed`コマンドを使用して `./data`フォルダにある csv ファイルからロードされます。 `seed` コマンドはテーブルからデータをロードするためによく使用されますが、このコマンドはデータ ローディングを実行するように設計されていません。 +オリジナルの link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop チュートリア,window="_blank"] プロジェクトのデータは、dbt の `seed` コマンドを使用して `./data` フォルダにある csv ファイルからロードされます。 `seed` コマンドはテーブルからデータをロードするためによく使用されますが、このコマンドはデータ ローディングを実行するように設計されていません。 このデモでは、データ ローディング用に設計されたツール Airbyte を使用してデータウェアハウス/レイクにデータを読み込む、より一般的なセットアップを想定しています。 ただし、Airbyte を通じてロードされたデータは生の JSON 文字列として表されます。これらの生データから、正規化されたステージング ビューを作成しています。このタスクは、以下のステージング モデルを通じて実行します。 -* `stg_customers`モデルは、`_airbyte_raw_customers`テーブルから`customers`の正規化されたステージングビューを作成します。 -* `stg_orders`モデルは、`_airbyte_raw_orders`テーブルから`orders`の正規化されたステージングビューを作成します。 -* `stg_payments`モデルは、`_airbyte_raw_payments`テーブルから`payments`の正規化されたステージングビューを作成します。 +* `stg_customers` モデルは、`_airbyte_raw_customers` テーブルから `customers` の正規化されたステージングビューを作成します。 +* `stg_orders` モデルは、`_airbyte_raw_orders` テーブルから `orders` の正規化されたステージングビューを作成します。 +* `stg_payments` モデルは、`_airbyte_raw_payments` テーブルから `payments` の正規化されたステージングビューを作成します。 +[NOTE] +==== +JSON 文字列を抽出するメソッドはすべてのステージング モデルで一貫しているため、これらのモデルの 1 つだけを例として使用して、変換の詳細な説明を提供します。 +==== -以下は、`stg_orders.sql`モデルを介して生の JSON データをビューに変換する例です。 +以下は、`stg_orders.sql` モデルを介して生の JSON データをビューに変換する例です。 [source, sql] ---- WITH source AS ( @@ -236,18 +239,18 @@ flattened_json_data AS ( SELECT * FROM flattened_json_data ---- -* このモデルでは、ソースは生のテーブル`_airbyte_raw_orders`として定義されます。 -* この生のテーブル列には、メタデータと実際に取り込まれたデータの両方が含まれています。データ列は`_airbyte_data`と呼ばれます。 +* このモデルでは、ソースは生のテーブル `_airbyte_raw_orders` として定義されます。 +* この生のテーブル列には、メタデータと実際に取り込まれたデータの両方が含まれています。データ列は `_airbyte_data` と呼ばれます。 * この列は Teradata JSON 型です。この型は、JSON オブジェクトからスカラー値を取得するメソッド JSONExtractValue をサポートします。 * このモデルでは、ビューをマテリアライズドするために、対象の各属性を取得し、意味のあるエイリアスを追加しています。 === ディメンションモデル (マート) ディメンションモデルの構築は、以下の 2 段階のプロセスです。 -* 最初に、`stg_orders`、`stg_customers`、`stg_payments`の正規化されたビューを取得し、非正規化された中間結合テーブル`customer_orders`、`order_payments`、`customer_payments`を構築します。これらのテーブルの定義は `./models/marts/core/intermediate` にあります。 -* 2 番目のステップでは、 `dim_customers` と `fct_orders` モデルを作成します。これらは、BI ツールに公開するディメンション モデル テーブルを構成します。これらのテーブルの定義は `./models/marts/core`にあります。 +* 最初に、`stg_orders`、`stg_customers`、`stg_payments` の正規化されたビューを取得し、非正規化された中間結合テーブル `customer_orders`、`order_payments`、`customer_payments` を構築します。これらのテーブルの定義は `./models/marts/core/intermediate` にあります。 +* 2 番目のステップでは、 `dim_customers` と `fct_orders` モデルを作成します。これらは、BI ツールに公開するディメンション モデル テーブルを構成します。これらのテーブルの定義は `./models/marts/core` にあります。 -=== 変換の実行 +=== 変換を実行する dbt プロジェクトで定義された変換を実行するには、以下のコマンドを実行します。 [source, bash] @@ -261,7 +264,7 @@ image::elt/{dir}/dbt_run.png[dbt run output, width=75%] === テストデータ ディメンションモデル内のデータが正しいことを確認するために、dbt を使用すると、データに対するテストを定義して実行できます。 -テストは `/models/marts/core/schema.yml` と `/models/staging/schema.yml` で定義されています。 各列には、`tests`キーの下で複数のテストを構成できます。 +テストは `/models/marts/core/schema.yml` と `/models/staging/schema.yml` で定義されています。 各列には、`tests` キーの下で複数のテストを構成できます。 * 例えば、 `fct_orders.order_id` 列には固有な非 NULL 値が含まれることが予想されます。 @@ -276,7 +279,7 @@ dbt test image::elt/{dir}/dbt_test.png[dbt test output, width=75%] -=== ドキュメントの生成 +=== ドキュメントを生成する このモデルは、わずか数個のテーブルで構成されています。より多くのデータ ソースとより複雑なディメンションモデルを使用するシナリオでは、データ系統と各中間モデルの目的をドキュメント化することが非常に重要です。 @@ -296,7 +299,7 @@ dbt docs generate dbt docs serve ---- -==== Lineage graph +==== Lineage Graph image::elt/{dir}/dbt_docs_serve.png[dbt lineage graph, width=75%] @@ -309,4 +312,4 @@ image::elt/{dir}/dbt_docs_serve.png[dbt lineage graph, width=75%] * link:https://docs.getdbt.com/docs/[dbt のドキュメント] * link:https://github.com/Teradata/dbt-teradata[dbt-teradata プラグインのドキュメント] -include::ROOT:partial$community_link.adoc[] +include::../partials/community_link.adoc[] diff --git a/modules/ROOT/pages/ja/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.adoc b/modules/ROOT/pages/ja/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.adoc index 69ec14ada..1f3fc81b6 100644 --- a/modules/ROOT/pages/ja/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/elt/use-airbyte-to-load-data-from-external-sources-to-teradata-vantage.adoc @@ -11,7 +11,7 @@ == 概要 -このチュートリアルでは、Airbyteを使用してソースからTeradata Vantageにデータを移動する方法を紹介し、https://docs.airbyte.com/using-airbyte/getting-started/[Airbyte Open Source オプション]とhttps://airbyte.com/[Airbyte Cloud オプション]の両方について詳しく説明します。この具体的な例では、Google スプレッドシートから Teradata Vantage へのレプリケーションを取り上げます。 +このチュートリアルでは、Airbyteを使用してソースからTeradata Vantageにデータを移動する方法を紹介し、 https://docs.airbyte.com/using-airbyte/getting-started/[Airbyte Open Source オプション] と https://airbyte.com/[Airbyte Cloud オプション] の両方について詳しく説明します。 この具体的な例では、Google スプレッドシートから Teradata Vantage へのレプリケーションを取り上げます。 * ソース: Google スプレッドシート * 宛先: Teradata Vantage @@ -19,19 +19,19 @@ image::elt/{dir}/sample_employees_payrate_google_sheets.png[サンプル従業員の給与Google スプレッドシート,align="center", width=50%] == 前提条件 -* Teradata Vantageインスタンスへのアクセス。これは、Airbyte 接続の宛先として定義されます。Airbyteの設定には、データベースの`Host`、`Username`、`Password`が必要です。 +* Teradata Vantageインスタンスへのアクセス。これは、Airbyte 接続の宛先として定義されます。Airbyteの設定には、データベースの `Host`、`Username`、`Password` が必要です。 + include::../partials/vantage_clearscape_analytics.adoc[] * link:https://support.google.com/googleapi/answer/6158841?hl=en[個人または組織のアカウントで Google Cloud Platform API が有効になっている, window="_blank"]。OAuth またはサービス アカウント キー認証システムを介して Google アカウントを認証する必要があります。この例では、サービス アカウント キー認証システムを使用します。 -* ソース システムからのデータ。この場合は、link:https://docs.google.com/spreadsheets/d/1XNBYUw3p7xG6ptfwjChqZ-dNXbTuVwPi7ToQfYKgJIE/edit#gid=0[Google スプレッドシートのサンプルスプレッドシート、 window="_blank"]を使用する。サンプルデータは、従業員型別の給与の内訳です。 +* ソース システムからのデータ。この場合は、link:https://docs.google.com/spreadsheets/d/1XNBYUw3p7xG6ptfwjChqZ-dNXbTuVwPi7ToQfYKgJIE/edit#gid=0[Google スプレッドシートのサンプルスプレッドシート, window="_blank"] を使用する。サンプルデータは、従業員型別の給与の内訳です。 === Airbyte Cloud -* https://airbyte.com/[Airbyte Cloud] でアカウントを作成し、link:#airbyte_configuration[Airbyte Configuration]セクションの手順に進みます。 +* https://airbyte.com/[Airbyte Cloud] でアカウントを作成し、link:#airbyte_configuration[Airbyte Configuration] セクションの手順に進みます。 === Airbyte Open Source -* link:https://github.com/airbytehq/airbyte[Airbyte Open Source, window="_blank"]をローカルで実行するには、Docker Compose をインストールします。Docker Compose には Docker Desktop が付属しています。詳細については 、link:https://docs.docker.com/compose/install/[docker ドキュメント, window="_blank"] を参照してください。 +* link:https://github.com/airbytehq/airbyte[Airbyte Open Source, window="_blank"] をローカルで実行するには、Docker Compose をインストールします。Docker Compose には Docker Desktop が付属しています。詳細については 、link:https://docs.docker.com/compose/install/[docker ドキュメント, window="_blank"] を参照してください。 * Airbyte Open Source リポジトリのクローンを作成し、airbyte ディレクトリに移動します。 + @@ -43,7 +43,7 @@ cd airbyte シェルスクリプト`run-ab-platform`を実行する前に、Docker Desktopが実行されていることを確認します。 -* シェルスクリプト`run-ab-platform`を次のように実行しますを実行します。 +* シェルスクリプト `run-ab-platform` を次のように実行しますを実行します。 + [source, bash] @@ -54,7 +54,7 @@ cd airbyte + [NOTE] ==== -上記のコマンドは、Windowsの`git bash`で実行できます。詳細については 、link:https://docs.airbyte.com/deploying-airbyte/local-deployment/[Airbyte Local Deployment, window="_blank"] を参照してください。 +上記のコマンドは、Windowsの `git bash` で実行できます。詳細については 、link:https://docs.airbyte.com/deploying-airbyte/local-deployment/[Airbyte Local Deployment, window="_blank"] を参照してください。 ==== * リポジトリに含まれる `env` ファイルにあるデフォルトの信頼証明を入力して、Web アプリ http://localhost:8000/ にログインします。 @@ -75,36 +75,39 @@ Airbyte Open Sourceが起動すると、接続ダッシュボードが表示さ == Airbyteの構成 -=== ソース接続をする +=== ソース接続の設定 * 「Create your first connection」をクリックするか、右上隅をクリックして、Airbyte の接続ダッシュボードで新しい接続ワークフローを開始できます。 image::elt/{dir}/create_first_connection.png[最初の接続を作成するダッシュボード, width=75%] -* Airbyte はソースを尋ねます。既存のソースから選択することも (すでに設定している場合)、新しいソースを設定することもできます。この場合は `Google スプレッドシート`を選択します。 +* Airbyte はソースを尋ねます。既存のソースから選択することも (すでに設定している場合)、新しいソースを設定することもできます。この場合は `Google スプレッドシート` を選択します。 -* 認証には、JSON形式のサービスアカウントキーを使用する`サービスアカウントキー認証`を使用している。デフォルトの`OAuth`から`サービスアカウントキー認証`に切り替えます。. サービス アカウント キー認証で Google アカウントを認証するには、 JSON 形式のlink:https://cloud.google.com/iam/docs/keys-create-delete#creating_service_account_keys[Google Cloud サービス アカウント キー, window="_blank"] を入力してください。 + +* 認証には、JSON形式のサービスアカウントキーを使用する `サービスアカウントキー認証` を使用している。デフォルトの `OAuth` から `サービスアカウントキー認証` に切り替えます。. サービス アカウント キー認証で Google アカウントを認証するには、 JSON 形式の link:https://cloud.google.com/iam/docs/keys-create-delete#creating_service_account_keys[Google Cloud サービス アカウント キー, window="_blank"] を入力してください。 ++ サービス アカウントにプロジェクト閲覧者アクセス権があることを確認してください。スプレッドシートがリンクを使用して誰にでも表示できる場合は、それ以上の操作は必要ありません。そうでない場合は、 link:https://www.youtube.com/watch?v=GyomEw5a2NQ[サービス アカウントにスプレッドシートへのアクセスを認証してください。, window="_blank"] -* ソーススプレッドシートへのリンクを`スプレッドシートのリンク`として追加します。 - +* ソーススプレッドシートへのリンクを `スプレッドシートのリンク` として追加します。 image::elt/{dir}/configuring_source_gsheet_airbyte.png[Airbyteでのソースの設定] [NOTE] ==== 詳細については、 link:https://docs.airbyte.com/integrations/sources/google-sheets/#:~:text=For%20Airbyte%20Open%20Source%3A[Airbyte オープン ソースのソース コネクタとして Google スプレッドシートを設定する, window="_blank"] -を参照してください。 + を参照してください。 ==== * [Set up source]をクリックし、設定が正しければ、次のメッセージが表示されます。 `All connection tests passed!` === 宛先接続の設定 -* `Teradata Vantage`を使用して新しい接続を作成する場合は、「Set up the destination」セクションで宛先型として `Teradata Vantage` を選択します。 -* `Host`、`User`、および`Password`を追加する。これらは、Clearscape Analytics Environmentで使用される`Host`、`Username`、`Password`とそれぞれ同じです。 -* 特定のコンテキストに適したデフォルトのスキーマ名を指定します。ここでは、`gsheet_airbyte_td`を提供しました。 - +* `Teradata Vantage` を使用して新しい接続を作成する場合は、「Set up the destination」セクションで宛先型として `Teradata Vantage` を選択します。 +* `Host`、`User`、および `Password` を追加する。これらは、Clearscape Analytics Environmentで使用される `Host`、`Username`、`Password` とそれぞれ同じです。 +* 特定のコンテキストに適したデフォルトのスキーマ名を指定します。ここでは、`gsheet_airbyte_td` を提供しました。 +[NOTE] +==== + `Default Schema` を指定しない場合は、 "Connector failed while creating schema"というエラーが表示されます。 `Default Schema` に適切な名前を指定していることを確認してください。 +==== image::elt/{dir}/configuring_destination_teradata_airbyte.png[Airbyteでの宛先Teradataの構成] @@ -141,7 +144,7 @@ Airbyte は、`Status` タブの [Sync History] セクションで同期の試 image::elt/{dir}/data_sync_summary.png[データ同期のまとめ] -次に、 link:https://clearscape.teradata.com/dashboard[ClearScape Analytics Experience に移動し,window="_blank"] で Jupyter Notebookを実行します。ClearScape Analytics Experience のNotebookは Teradata SQL クエリーを実行するように構成されており、データベース `gsheet_airbyte_td`、ストリーム (テーブル)、および完全なデータが存在するかどうかを検証します。 +次に、 link:https://clearscape.teradata.com/dashboard[ClearScape Analytics Experience,window="_blank"] に移動しで Jupyter Notebookを実行します。ClearScape Analytics Experience のNotebookは Teradata SQL クエリーを実行するように構成されており、データベース `gsheet_airbyte_td`、ストリーム (テーブル)、および完全なデータが存在するかどうかを検証します。 image::elt/{dir}/data_sync_validation_in_teradata.png[Teradata でのデータ同期の妥当性検査] @@ -168,13 +171,13 @@ DATABASE gsheet_airbyte_td; SELECT * FROM _airbyte_raw_sample_employee_payrate; ---- -この接続では正規化と変換がサポートされておらず、 link:https://docs.airbyte.com/understanding-airbyte/namespaces/#:~:text=If%20you%20don%27t%20enable%20basic%20normalization%2C%20you%20will%20only%20receive%20the%20raw%20tables.[生のテーブル window="_blank" しかない]ため、宛先のストリーム (テーブル) 名には `\_airbyte_raw_` という接頭辞が付いています。各ストリーム (テーブル) には 3 つの列が含まれます。 +この接続では正規化と変換がサポートされておらず、 link:https://docs.airbyte.com/understanding-airbyte/namespaces/#:~:text=If%20you%20don%27t%20enable%20basic%20normalization%2C%20you%20will%20only%20receive%20the%20raw%20tables.[生のテーブル, window="_blank"] しかないため、宛先のストリーム (テーブル) 名には `\_airbyte_raw_` という接頭辞が付いています。各ストリーム (テーブル) には 3 つの列が含まれます。 -1. `_airbyte_ab_id`: Airbyte によって処理される各イベントに割り当てられる uuid。Teradata の列型は `VARCHAR(256)`です。 +1. `_airbyte_ab_id`: Airbyte によって処理される各イベントに割り当てられる uuid。Teradata の列型は `VARCHAR(256)` です。 -2. `_airbyte_emitted_at`: イベントがデータ ソースからいつ取得されたかを表すタイムスタンプ。Teradata の列型は `TIMESTAMP(6)`です。 +2. `_airbyte_emitted_at`: イベントがデータ ソースからいつ取得されたかを表すタイムスタンプ。Teradata の列型は `TIMESTAMP(6)` です。 -3. `_airbyte_data`: イベント データを表す json blob。Teradata の列型は `JSON`です。 +3. `_airbyte_data`: イベント データを表す json blob。Teradata の列型は `JSON` です。 `_airbyte_data`カラムには、ソースのGoogle スプレッドシートと同じ9行が表示され、データはJSON形式で、必要に応じてさらに変換できる。 diff --git a/modules/ROOT/pages/ja/general/advanced-dbt.adoc b/modules/ROOT/pages/ja/general/advanced-dbt.adoc index 139d2d84b..a7a23f4a7 100644 --- a/modules/ROOT/pages/ja/general/advanced-dbt.adoc +++ b/modules/ROOT/pages/ja/general/advanced-dbt.adoc @@ -12,23 +12,23 @@ このプロジェクトでは、上級ユーザーの観点から dbt と Teradata Vantage の統合を紹介します。 dbt を使用したデータ エンジニアリングが初めての場合は、link:https://quickstarts.teradata.com/dbt.html[導入プロジェクト, window="_blank window="_blank"] -から始めることをお勧めします。 + から始めることをお勧めします。 デモで紹介されている高度なユースケースは以下のとおりです。 * 増分マテリアライズド * ユーティリティ マクロ * Teradata 固有の修飾子を使用したテーブル/ビューの作成の最適化 -これらの概念の適用は、架空の店舗である`teddy_retailers`のELTプロセスを通じて説明されています。 +これらの概念の適用は、架空の店舗である `teddy_retailers` のELTプロセスを通じて説明されています。 == 前提条件 * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* Python *3.7*、*3.8*、*3.9*、または *3.10*がインストールされていること。 +* Python *3.7*、*3.8*、*3.9*、または *3.10* がインストールされていること。 -* データベース コマンドを実行するためのデータベース クライアント。 このようなクライアントの構成例は、 link:https://quickstarts.teradata.com/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.html[tutorial., window="_blank"] に示されています。 +* データベース コマンドを実行するためのデータベース クライアント。 このようなクライアントの構成例は、link:https://quickstarts.teradata.com/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.html[チュートリアル, window="_blank"] に示されています。 == デモプロジェクトの設定 @@ -73,7 +73,7 @@ pip install dbt-teradata dbt deps ---- -== データ ウェアハウスの設定 +== データ ウェアハウスを設定する デモ プロジェクトでは、ソース データがデータ ウェアハウスにすでに読み込まれていることを前提としています。これは、実働環境での dbt の使用方法を模倣しています。 この目的を達成するために、Google Cload Platform(GCP)で利用可能な公開データセットと、それらのデータセットをモックデータウェアハウスにロードするためのスクリプトを提供します。+ @@ -90,11 +90,11 @@ AS PERMANENT = 110e6, 初期データセットをデータウェアハウスにロードするために、必要なスクリプトがプロジェクトの`references/inserts/create_data.sql`パスで使用できます。 これらのスクリプトは、データベース クライアントにコピー アンド ペーストすることで実行できます。特定のケースでこれらのスクリプトを実行するためのガイダンスについては、データベース クライアントのドキュメントを参照してください。 -== dbtの構成 +== dbtを構成する ここで、dbtを設定してVantageデータベースに接続します。 -以下の内容のファイル `$HOME/.dbt/profiles.yml` を作成します。Teradata Vantageに一致するように``、`` 、``を調整します。 -ご使用の環境ですでに dbt を使用したことがある場合は、ホームのディレクトリ `dbt/profiles.yml`ファイルにプロジェクトのプロファイルを追加するだけで済みます。 +以下の内容のファイル `$HOME/.dbt/profiles.yml` を作成します。Teradata Vantageに一致するように``、`` 、`` を調整します。 +ご使用の環境ですでに dbt を使用したことがある場合は、ホームのディレクトリ `dbt/profiles.yml` ファイルにプロジェクトのプロファイルを追加するだけで済みます。 ディレクトリ.dbtがまだシステムに存在しない場合は、それを作成し、dbtプロファイルを管理するためにprofiles.ymlを追加する必要があります。 [source, yaml, id="dbt_first_config", role="emits-gtm-events"] @@ -123,11 +123,11 @@ teddy_retailers: dbt debug ---- -デバッグ コマンドがエラーを返した場合は、 `profiles.yml`の内容に問題がある可能性があります。 +デバッグ コマンドがエラーを返した場合は、 `profiles.yml` の内容に問題がある可能性があります。 == Teddy Retailers のウェアハウスについて -前述のように、`teddy_retailers`は架空の店舗です。 +前述のように、`teddy_retailers` は架空の店舗です。 dbt 主導の変換を通じて、「teddy_retailers」 トランザクション データベースから取り込まれたソース データを、分析に使用できるスター スキーマに変換します。 === データ モデル @@ -208,7 +208,7 @@ dim_products] {bgcolor: "#f37843", color: "#ffffff", border: "0", border-color: === ソース -* Teddy Retailersの場合、`orders`と`order_products`のソースは、組織のELT(抽出、ロード、変換)プロセスによって定期的に更新される。 +* Teddy Retailersの場合、`orders` と `order_products` のソースは、組織のELT(抽出、ロード、変換)プロセスによって定期的に更新される。 * 更新されたデータには、データセット全体ではなく、最新の変更のみが含まれる。これは、データセットが大量であるためです。 * この課題に対処するには、以前に利用可能なデータを保持しながら、これらの増分更新をキャプチャする必要があります。 @@ -216,12 +216,12 @@ dim_products] {bgcolor: "#f37843", color: "#ffffff", border: "0", border-color: プロジェクトの models ディレクトリ内の`schema.yml`ファイルは、モデルのソースを指定します。これらのソースは、SQL スクリプトを使用して GCP からロードしたデータと一致しています。 -=== ステージングリージョン +=== ステージング エリア ステージングエリアモデルは、各ソースからデータを取り込み、必要に応じて各フィールドの名前を変更するだけです。 このディレクトリの schema.yml では、主キーの基本的な保全性チェックを定義します。 -=== コアエリア +=== コア エリア この段階では、以下の高度な dbt 概念がモデルに適用されます。 @@ -230,8 +230,8 @@ dim_products] {bgcolor: "#f37843", color: "#ffffff", border: "0", border-color: このディレクトリ内の `schema.yml` ファイルは、構築している 2 つのモデルのマテリアライズドが増分であることを指定します。 これらのモデルに対して異なる戦略を採用している。 -* `all_orders model`には、削除+挿入方式を使用する。この戦略が実装されるのは、データ更新に含まれる注文のステータスに変更がある可能性があるためです。 -* `all_order_products`モデルでは、デフォルトの追加戦略を採用します。このアプローチが選択されたのは、`order_id`と`product_id`の同じ組み合わせがソースに複数回出現する可能性があるためです。 +* `all_orders model` には、削除+挿入方式を使用する。この戦略が実装されるのは、データ更新に含まれる注文のステータスに変更がある可能性があるためです。 +* `all_order_products`モデルでは、デフォルトの追加戦略を採用します。このアプローチが選択されたのは、`order_id` と `product_id` の同じ組み合わせがソースに複数回出現する可能性があるためです。 これは、同じ製品の新しい数量が特定の注文に追加または削除されたことを示します。 ==== マクロ支援アサーション @@ -243,8 +243,7 @@ dim_products] {bgcolor: "#f37843", color: "#ffffff", border: "0", border-color: `all_order` モデルと `all_order_products` モデルの両方について、これら 2 つのコア モデルの追跡を強化するために Teradata 修飾子を組み込みました。 統計の収集を容易にするために、データベース コネクタにそれに応じて指示する `post_hook` を追加しました。さらに、`all_orders`テーブル内の`order_id`カラムにインデックスを作成しました。 - -== 変換の実行 +== 変換を実行する === ベースライン データを使用してディメンションモデルを作成する @@ -255,7 +254,7 @@ dbt を実行することで、ベースライン データを使用してディ dbt run ---- -これにより、ベースラインデータを使用して、コアモデルと次元モデルの両方が作成される。 +これにより、ベースラインデータを使用して、コアモデルと次元モデルの両方が作成されます。 === データをテストする @@ -270,9 +269,9 @@ dbt test サンプルのビジネス インテリジェンス クエリーは、プロジェクトの `references/query` パスにあります。これらのクエリーを使用すると、顧客、注文、製品などのディメンションに基づいて事実のデータを分析できます。 -=== ELTプロセスのモック +=== ELTプロセスをモック化する -更新をソースデータセットにロードするためのスクリプトは、プロジェクトの`references/inserts/update_data.sql`パスにあります。 +更新をソースデータセットにロードするためのスクリプトは、プロジェクトの `references/inserts/update_data.sql` パスにあります。 データ ソースを更新した後、前述の手順 (dbt の実行、データのテスト、サンプル クエリーの実行) に進むことができます。これにより、データの変動と増分更新を視覚化できるようになります。 diff --git a/modules/ROOT/pages/ja/general/airflow.adoc b/modules/ROOT/pages/ja/general/airflow.adoc index 3bbe11713..ba820e759 100644 --- a/modules/ROOT/pages/ja/general/airflow.adoc +++ b/modules/ROOT/pages/ja/general/airflow.adoc @@ -19,7 +19,7 @@ * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* Python *3.8*、*3.9*、*3.10*、または *3.11*がインストールされていること。 +* Python *3.8*、*3.9*、*3.10*、または *3.11* がインストールされていること。 == Apache Airflowをインストールする @@ -29,7 +29,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] ---- export AIRFLOW_HOME=~/airflow ---- -2. PyPIリポジトリから`apache-airflow`の安定版バージョン2. 8.1をインストールします。 +2. PyPIリポジトリから `apache-airflow` の安定版バージョン2. 8.1をインストールします。 + [source, bash] ---- @@ -53,7 +53,7 @@ pip install "apache-airflow-providers-teradata==1.0.0" ---- airflow standalone ---- -2. Airflow UIにアクセスします。ブラウザでhttps://localhost:8080にアクセスし、ターミナルに表示されている管理者アカウントの詳細でログインします。 +2. Airflow UIにアクセスします。ブラウザで https://localhost:8080 にアクセスし、ターミナルに表示されている管理者アカウントの詳細でログインします。 == Airflow UIでTeradata接続を定義する @@ -107,7 +107,7 @@ with DAG( ) ---- -== DAGのロード +== DAGをロードする Airflowは、PythonソースファイルからDAGをロードし、設定されたDAG_FOLDER-$AIRFLOW_HOME/files/DAGsディレクトリ内で検索されます。 @@ -115,7 +115,7 @@ Airflowは、PythonソースファイルからDAGをロードし、設定され DAG は次の 2 つの方法のいずれかで実行されます。 1. 手動または API 経由でトリガーされた場合 2. DAG の一部として定義されている定義されたスケジュールで、 -`example_teradata_operator`が手動でトリガーされるように定義されています。スケジュールを定義するには、link:https://en.wikipedia.org/wiki/Cron[Crontab, window="_blank"] スケジュール値をスケジュール引数に渡すことができます。 +`example_teradata_operator` が手動でトリガーされるように定義されています。スケジュールを定義するには、link:https://en.wikipedia.org/wiki/Cron[Crontab, window="_blank"] スケジュール値をスケジュール引数に渡すことができます。 [source, python] ---- with DAG( @@ -126,7 +126,7 @@ with DAG( == まとめ -このチュートリアルでは、Airflow と Airflow Teradata プロバイダーを Teradata Vantage インスタンスで使用する方法を説明しました。提供されているサンプルDAGは、Connection UIで定義されたTeradata Vantageインスタンスに`my_users`テーブルを作成します。 +このチュートリアルでは、Airflow と Airflow Teradata プロバイダーを Teradata Vantage インスタンスで使用する方法を説明しました。提供されているサンプルDAGは、Connection UIで定義されたTeradata Vantageインスタンスに `my_users` テーブルを作成します。 == さらに詳しく * link:https://airflow.apache.org/docs/apache-airflow/stable/start.html[Airflow のドキュメンテーション] diff --git a/modules/ROOT/pages/ja/general/create-parquet-files-in-object-storage.adoc b/modules/ROOT/pages/ja/general/create-parquet-files-in-object-storage.adoc index 7e94c2397..eb93ab803 100644 --- a/modules/ROOT/pages/ja/general/create-parquet-files-in-object-storage.adoc +++ b/modules/ROOT/pages/ja/general/create-parquet-files-in-object-storage.adoc @@ -24,9 +24,9 @@ include::../partials/vantage_clearscape_analytics.adoc[] `WRITE_NOS` を使用するとデータベーステーブルまたはクエリーの結果を選択したまたはすべてのカラムを使用してAmazon S3, Azure Blob storage, Azure Data Lake Storage Gen2, Google Cloud Storageなどの外部オブジェクト ストレージに書き込むことができます。この機能ではデータをParquet形式で保存します。 - `WRITE_NOS` 機能については、 https://docs.teradata.com/r/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide/June-2022/Writing-Data-to-External-Object-Store[NOS ドキュメント]に詳細なドキュメントが掲載されていますので参考にしてください。 +`WRITE_NOS` 機能については、 https://docs.teradata.com/r/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide/June-2022/Writing-Data-to-External-Object-Store[NOS ドキュメント] に詳細なドキュメントが掲載されていますので参考にしてください。 - `WRITE_NOS` 関数を実行できるデータベースへのアクセス権が必要です。そのようなデータベースがない場合は、以下のSQLでVantageユーザーを作成します。 +`WRITE_NOS` 関数を実行できるデータベースへのアクセス権が必要です。そのようなデータベースがない場合は、以下のSQLでVantageユーザーを作成します。 [source, teradata-sql, id="parquet_create_user", role="emits-gtm-events"] ---- CREATE USER db AS PERM=10e7, PASSWORD=db; @@ -36,8 +36,7 @@ GRANT EXECUTE FUNCTION on TD_SYSFNLIB.READ_NOS to db; GRANT EXECUTE FUNCTION on TD_SYSFNLIB.WRITE_NOS to db; ---- -NOTE: ユーザーとその権限の設定についてもっと詳しく知りたい場合は、https://docs.teradata.com/r/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide/June-2022/Setting-Up-Access/Setting-Access-Privileges[NOS ドキュメント]を参照してください。 - +NOTE: ユーザーとその権限の設定についてもっと詳しく知りたい場合は、 https://docs.teradata.com/r/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide/June-2022/Setting-Up-Access/Setting-Access-Privileges[NOS ドキュメント] を参照してください。 1. まず、Teradata Vantageインスタンスにテーブルを作成します。 + @@ -75,9 +74,9 @@ column1 column2 column3 3 22/01/03 3.30 ---- -3. `WRITE_NOS`を使用してParquetファイルを作成します。``をs3バケットの名前に置き換えることを忘れないでください。また、`` と `` をアクセス キーとシークレットに置き換えます。 +3. `WRITE_NOS` を使用してParquetファイルを作成します。`` をs3バケットの名前に置き換えることを忘れないでください。また、`` と `` をアクセス キーとシークレットに置き換えます。 + -NOTE: オブジェクト ストレージにアクセスするための信頼証明を作成する方法については、クラウド プロバイダのドキュメントを確認してください。例えば、AWS の場合は 、https://aws.amazon.com/premiumsupport/knowledge-center/create-access-key/[「How do I create an AWS access key? (AWS アクセス キーを作成するにはどうすればよいですか?)」]を確認してください。 +NOTE: オブジェクト ストレージにアクセスするための信頼証明を作成する方法については、クラウド プロバイダのドキュメントを確認してください。例えば、AWS の場合は 、 https://aws.amazon.com/premiumsupport/knowledge-center/create-access-key/[How do I create an AWS access key? (AWS アクセス キーを作成するにはどうすればよいですか?)」] を確認してください。 + [source, teradata-sql] ---- @@ -97,7 +96,7 @@ INCLUDE_HASHBY('TRUE') + これで、オブジェクト ストレージ バケットにparquetファイルが作成されました。ファイルを簡単にクエリーするには、ステップ 4 に従う必要があります。 -4. NOSでサポートされる外部テーブルを作成します。``をs3バケットの名前に置き換えることを忘れないでください。また、 `` と `` をアクセス キーとシークレットに置き換えます。 +4. NOSでサポートされる外部テーブルを作成します。`` をs3バケットの名前に置き換えることを忘れないでください。また、 `` と `` をアクセス キーとシークレットに置き換えます。 + [source, teradata-sql] ---- diff --git a/modules/ROOT/pages/ja/general/dbt.adoc b/modules/ROOT/pages/ja/general/dbt.adoc index 26e350d8a..0dc98a427 100644 --- a/modules/ROOT/pages/ja/general/dbt.adoc +++ b/modules/ROOT/pages/ja/general/dbt.adoc @@ -10,14 +10,14 @@ == 概要 -このチュートリアルでは、Teradata Vantage で dbt (データ構築ツール) を使用する方法を説明します。これは、オリジナルの link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop チュートリアル]に基づいています。いくつかのモデルは、Vantage がサポートする SQL Dialectに合わせて調整されています。 +このチュートリアルでは、Teradata Vantage で dbt (データ構築ツール) を使用する方法を説明します。これは、オリジナルの link:https://github.com/dbt-labs/jaffle_shop-dev[dbt Jaffle Shop チュートリアル] に基づいています。いくつかのモデルは、Vantage がサポートする SQL Dialectに合わせて調整されています。 == 前提条件 * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* Python *3.7*、*3.8*、*3.9*、*3.10*、または *3.11*がインストールされていること。 +* Python *3.7*、*3.8*、*3.9*、*3.10*、または *3.11* がインストールされていること。 == dbtをインストールする @@ -61,19 +61,19 @@ source env/bin/activate -- ==== -3. `dbt-teradata`モジュールとその依存関係をインストールします。dbtのコアモジュールも依存関係のあるモジュールとして含まれているので、別にインストールする必要はありません。 +3. `dbt-teradata` モジュールとその依存関係をインストールします。dbtのコアモジュールも依存関係のあるモジュールとして含まれているので、別にインストールする必要はありません。 + [source, bash] ---- pip install dbt-teradata ---- -== dbtの構成 +== dbtを構成する ここで、dbtを設定してVantageデータベースに接続します。以下の内容のファイル `$HOME/.dbt/profiles.yml` を作成します。Teradata インスタンスに一致するように``、`` 、`` を調整します。 [NOTE] -.データベースの設定 +.データベースを設定する ==== 以下の dbt プロファイルは、 `jaffle_shop`というデータベースを指します。データベースがTeradata Vantageインスタンスに存在しない場合は、作成されます。インスタンス内の既存のデータベースを指すように `schema` 値を変更することもできます。 ==== @@ -174,7 +174,7 @@ dbt は、これらの生データ テーブルを取得して、分析ツール === 生データテーブルを作成する -実際には、Segment、Stitch、Fivetran、または別の ETL ツールなどのプラットフォームから生データを取得することになります。この例では、dbtの`seed`機能を使用して、csvファイルからテーブルを作成します。csvファイルは、`./data`ディレクトリにあります。各 csv ファイルによって 1 つのテーブルが作成されます。 dbt はファイルを検査し、型推論を行って列に使用するデータ型を決定します。 +実際には、Segment、Stitch、Fivetran、または別の ETL ツールなどのプラットフォームから生データを取得することになります。この例では、dbtの `seed` 機能を使用して、csvファイルからテーブルを作成します。csvファイルは、`./data` ディレクトリにあります。各 csv ファイルによって 1 つのテーブルが作成されます。 dbt はファイルを検査し、型推論を行って列に使用するデータ型を決定します。 生データ テーブルを作成しましょう。 [source, bash] @@ -192,8 +192,8 @@ dbt seed dbt run ---- -では、ここで何があったのか? dbtは`CREATE TABLE/VIEW FROM SELECT`SQLを使用して追加のテーブルを作成した。最初の変換では、dbtは生のテーブルを取得し、`customer_orders`、`order_payments`、`customer_payments`と呼ばれる非正規化結合テーブルを構築しました。これらのテーブルの定義は`./marts/core/intermediate`に記載されています。 -2番目のステップでは、dbtは `dim_customers` と`fct_orders`のテーブルを作成しました。これらは、BI ツールに公開するディメンション モデル テーブルです。 +では、ここで何があったのか? dbtは `CREATE TABLE/VIEW FROM SELECT` SQLを使用して追加のテーブルを作成した。最初の変換では、dbtは生のテーブルを取得し、`customer_orders`、`order_payments`、`customer_payments` と呼ばれる非正規化結合テーブルを構築しました。これらのテーブルの定義は `./marts/core/intermediate` に記載されています。 +2番目のステップでは、dbtは `dim_customers` と `fct_orders` のテーブルを作成しました。これらは、BI ツールに公開するディメンション モデル テーブルです。 === データをテストする @@ -204,7 +204,7 @@ dbt はデータに複数の変換を適用しました。ディメンション dbt test ---- -=== ドキュメントの生成 +=== ドキュメントを生成する このモデルは、わずか数個のテーブルで構成されています。さらに多くのデータ ソースと、より複雑なディメンションモデルがあるシナリオを想像してください。また、生データと Data Vault 2.0 の原則に従ったディメンションモデルの間に中間ゾーンを設けることもできます。入力、変換、出力を何らかの方法でドキュメント化できたら便利ではないでしょうか? dbt を使用すると、構成ファイルからドキュメントを生成できます。 @@ -213,7 +213,7 @@ dbt test dbt docs generate ---- -これにより、`./target`ディレクトリにhtmlファイルが生成されます。 +これにより、`./target` ディレクトリにhtmlファイルが生成されます。 独自のサーバーを起動してドキュメントを参照できます。以下のコマンドはサーバーを起動し、ドキュメントのランディング ページが表示されたブラウザ タブを開きます。 diff --git a/modules/ROOT/pages/ja/general/fastload.adoc b/modules/ROOT/pages/ja/general/fastload.adoc index d39a73a3a..2bebf8cc8 100644 --- a/modules/ROOT/pages/ja/general/fastload.adoc +++ b/modules/ROOT/pages/ja/general/fastload.adoc @@ -11,7 +11,7 @@ [IMPORTANT] .廃止のお知らせ ==== -このハウツーでは、`Fastload`ユーティリティについて説明しています。このユーティリティは廃止されました。新しい実装では、link:https://docs.teradata.com/search/documents?query=Teradata+Parallel+Transporter+Quick+Start+Guide&sort=last_update&virtual-field=title_only&content-lang=en-US[Teradata Parallel Transporter(TPT)]の使用を検討してください。 +このハウツーでは、`Fastload` ユーティリティについて説明しています。このユーティリティは廃止されました。新しい実装では、 link:https://docs.teradata.com/search/documents?query=Teradata+Parallel+Transporter+Quick+Start+Guide&sort=last_update&virtual-field=title_only&content-lang=en-US[Teradata Parallel Transporter(TPT)] の使用を検討してください。 ==== == 概要 @@ -23,7 +23,7 @@ Vantageに大量のデータを移動させるニーズはよくあります。T * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* Teradata Tools and Utilities (TTU) をダウンロード - サポートされているプラットフォーム: link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package[Windows]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-macos-installation-package[MacOS]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0[Linux] (登録が必要です)。 +* Teradata Tools and Utilities (TTU) をダウンロード - サポートされているプラットフォーム: link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package[Windows]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-macos-installation-package[MacOS]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0[Linux] (登録が必要です)。 == TTUのインストール @@ -50,9 +50,9 @@ Linux:: -- ==== -== サンプルデータの入手 +== サンプルデータを入手する -非営利団体の米国税務申告を扱います。非営利の納税申告は公開データです。アメリカ内国歳入庁は、これらを S3 バケットで公開します。2020 年の提出書類のまとめを見てみましょう: `https://s3.amazonaws.com/irs-form-990/index_2020.csv`。ブラウザ、`wget`、または`curl`を使用して、ファイルをローカルに保存できます。 +非営利団体の米国税務申告を扱います。非営利の納税申告は公開データです。アメリカ内国歳入庁は、これらを S3 バケットで公開します。2020 年の提出書類のまとめを見てみましょう: `https://s3.amazonaws.com/irs-form-990/index_2020.csv`。ブラウザ、`wget`、または `curl` を使用して、ファイルをローカルに保存できます。 == データベースを作成する @@ -67,7 +67,7 @@ AS PERMANENT = 120e6, -- 120MB == Fastloadを実行する -これから`Fastload`を実行する。`Fastload` は、大量のデータを Vantage にアップロードする際に非常に効率的なコマンドラインツールです。`Fastload`は、高速にするためにいくつかの制限が設けられています。空のテーブルのみを設定でき、すでに設定されているテーブルへの挿入はサポートされていません。セカンダリ インデックスを持つテーブルはサポートされません。また、テーブルが `MULTISET` テーブルであっても、重複レコードは挿入されない。 制限の完全なリストについては、link:https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root[Teradata® `Fastload`リファレンス]を参照してください。 +これから `Fastload` を実行する。`Fastload` は、大量のデータを Vantage にアップロードする際に非常に効率的なコマンドラインツールです。`Fastload` は、高速にするためにいくつかの制限が設けられています。空のテーブルのみを設定でき、すでに設定されているテーブルへの挿入はサポートされていません。セカンダリ インデックスを持つテーブルはサポートされません。また、テーブルが `MULTISET` テーブルであっても、重複レコードは挿入されない。 制限の完全なリストについては、link:https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root[Teradata® `Fastload`リファレンス] を参照してください。 Fastload には独自のスクリプト言語があります。この言語を使用すると、任意の SQLコマンドを使用してデータベースを準備し、入力ソースを宣言し、Vantage にデータを挿入する方法を定義できます。このツールは対話型モードとバッチ モードの両方をサポートしています。このセクションでは、対話型モードを使用します。 @@ -121,7 +121,7 @@ BEGIN LOADING irs_returns ERRORFILES irs_returns_err1, irs_returns_err2; ---- -`Fastload`に 10k 行ごとにチェックポイントを保存するように指示します。ジョブを再開する必要がある場合に便利です。最後のチェックポイントから再開できるようになります。 +`Fastload` に 10k 行ごとにチェックポイントを保存するように指示します。ジョブを再開する必要がある場合に便利です。最後のチェックポイントから再開できるようになります。 [source, teradata-sql] ---- @@ -164,7 +164,7 @@ BEGIN LOADING irs_returns FILE = /tmp/index_2020.csv; ---- -最後に、データベースにデータを入れる INSERT 文を定義し、`LOADING`ブロックを閉じます。 +最後に、データベースにデータを入れる INSERT 文を定義し、`LOADING` ブロックを閉じます。 [source, teradata-sql] ---- @@ -293,14 +293,15 @@ AS ( NO PRIMARY INDEX; ---- -NOS ソリューションは追加のツールに依存しないため便利です。clear​37 / 5,000翻訳結果翻訳の結果SQLのみで実装可能です。NOS タスクが AMP に委任され、並行して実行されるため、特に多数の AMP を備えた Vantage デプロイメント環境では良好なパフォーマンスを発揮します。また、オブジェクト ストレージ内のデータを複数のファイルに分割すると、パフォーマンスがさらに向上する可能性があります。 +NOS ソリューションは追加のツールに依存しないため便利です。SQLのみで実装可能です。NOS タスクが AMP に委任され、並行して実行されるため、特に多数の AMP を備えた Vantage デプロイメント環境では良好なパフォーマンスを発揮します。また、オブジェクト ストレージ内のデータを複数のファイルに分割すると、パフォーマンスがさらに向上する可能性があります。 == まとめ -このハウツーでは、大量のデータを Vantage に取り込む方法を説明しました。`Fastload`を使用して、数十万のレコードを Vantage に数秒でロードしました。 +このハウツーでは、大量のデータを Vantage に取り込む方法を説明しました。`Fastload` を使用して、数十万のレコードを Vantage に数秒でロードしました。 + == さらに詳しく * link:https://docs.teradata.com/r/hBBrRBhRY0MFN4~xApbUqw/root[Teradata® `Fastload` リファレンス] -* xref::nos.adoc[] +* link:nos.html[オブジェクトストレージに保存されたクエリーデータ] include::../partials/community_link.adoc[] \ No newline at end of file diff --git a/modules/ROOT/pages/ja/general/geojson-to-vantage.adoc b/modules/ROOT/pages/ja/general/geojson-to-vantage.adoc index 785043e88..733259e7a 100644 --- a/modules/ROOT/pages/ja/general/geojson-to-vantage.adoc +++ b/modules/ROOT/pages/ja/general/geojson-to-vantage.adoc @@ -76,7 +76,7 @@ with con.cursor () as cur: === Vantageからマップを使用する -ここで、お気に入りの*SQL クライアント*を開き、Vantageシステムに接続します。 +ここで、お気に入りの *SQL クライアント* を開き、Vantageシステムに接続します。 ClearScape 分析の JSON 関数を使用して GeoJson ドキュメントを解析し、各フィーチャ (この例では都市を表す各フィーチャ) に最も関連するプロパティとジオメトリ自体 (都市の座標) を抽出します。 次に、GeomFromGeoJSON 関数を使用して、ジオメトリをネイティブ Vantage ジオメトリ データ型 (ST_GEOMETRY) としてキャストします。 @@ -156,7 +156,7 @@ CROSS JOIN (SEL city_coord FROM cities_geo WHERE city_name='Lvov') l Python json およびリスト操作関数と Python 用の Teradata SQL ドライバを使用すると、このプロセスが非常にシンプルかつ効率的になります。 -この例では、https://datahub.ioで利用可能な世界の国の境界を使用します。 +この例では、https://datahub.io で利用可能な世界の国の境界を使用します。 さっそく見ていきましょう。 @@ -214,7 +214,7 @@ teradatasql カーソルを使用して行のセットをロードするには === Vantage接続を作成し、ステージングテーブルにファイルをロードする -必要に応じて、Vantage のホスト名、ユーザー名を使用してこのコードを変更し、_logmech_パラメータを使用して高度なログイン メカニズム (LDAP、Kerberos など) を指定します。 +必要に応じて、Vantage のホスト名、ユーザー名を使用してこのコードを変更し、_logmech_ パラメータを使用して高度なログイン メカニズム (LDAP、Kerberos など) を指定します。 すべての接続パラメータは、teradatasql PyPi ページに文書化されています。 https://pypi.org/project/teradatasql/ 以下のコードは、単に Vantage 接続を作成し、カーソルを開いてテーブルを作成し、それをリストとともにロードします。 @@ -261,7 +261,7 @@ WITH con.cursor () AS cur: === データを使用する -これで、お気に入りの*SQL クライアント*と Teradata の優れたhttps://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Geospatial-Data-Types-17.20[地理空間データ型と分析関数]を使用してテーブルにクエリーを実行できるようになります。 +これで、お気に入りの *SQL クライアント* と Teradata の優れた https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Geospatial-Data-Types-17.20[地理空間データ型と分析関数] を使用してテーブルにクエリーを実行できるようになります。 例えば、このチュートリアル中にロードした 2 つのデータセットを使用して、どの国が存在するかをチェックインします。 diff --git a/modules/ROOT/pages/ja/general/getting-started-with-csae.adoc b/modules/ROOT/pages/ja/general/getting-started-with-csae.adoc index 9ca3184b0..810819be2 100644 --- a/modules/ROOT/pages/ja/general/getting-started-with-csae.adoc +++ b/modules/ROOT/pages/ja/general/getting-started-with-csae.adoc @@ -9,7 +9,7 @@ == 概要 -https://www.teradata.com/platform/clearscape-analytics[ClearScape Analytics^TM^] は、https://www.teradata.com/platform/vantagecloud[Teradata VantageCloud]の強力な分析エンジンです。市場で最も強力でオープンで接続された AI/ML 機能により、企業全体に画期的なパフォーマンス、価値、成長をもたらします。https://www.teradata.com/experience[ClearScape Analytics Experience] を通じて、ClearScape Analytics^TM^ および Teradata Vantage を非運用設定で体験できます。 +https://www.teradata.com/platform/clearscape-analytics[ClearScape Analytics^TM^] は、https://www.teradata.com/platform/vantagecloud[Teradata VantageCloud] の強力な分析エンジンです。市場で最も強力でオープンで接続された AI/ML 機能により、企業全体に画期的なパフォーマンス、価値、成長をもたらします。https://www.teradata.com/experience[ClearScape Analytics Experience] を通じて、ClearScape Analytics^TM^ および Teradata Vantage を非運用設定で体験できます。 このハウツーでは、ClearScapeアナリティクスエクスペリエンスで環境構築のステップを実行し、デモにアクセスする。 @@ -41,7 +41,7 @@ image::csae_create_env.png[環境を作成する,align="center",width=60%] | 環境の名前(例:「demo」) | *database password* -| 選択したパスワード。このパスワードは、`dbc` および `demo_user` ユーザーに割り当てられます。 +| 選択したパスワード。このパスワードは、`dbc` および `demo_user` ユーザーに割り当てられます。 | *Region* | ドロップダウンからリージョンを選択します。 @@ -58,9 +58,11 @@ image::csae_env_details.png[環境の詳細,align="center",width=75%] == デモへのアクセス -ClearScape Analytics Experience 環境には、分析を使用してさまざまな業界のビジネス上の問題を解決する方法を紹介するさまざまなデモが含まれています。 + +ClearScape Analytics Experience 環境には、分析を使用してさまざまな業界のビジネス上の問題を解決する方法を紹介するさまざまなデモが含まれています。 ++ -デモにアクセスするには、*RUN DEMOS USING JUPYTER*ボタンをクリックします。ブラウザの新しいタブで Jupyter 環境が開きます。 + +デモにアクセスするには、*RUN DEMOS USING JUPYTER* ボタンをクリックします。ブラウザの新しいタブで Jupyter 環境が開きます。 ++ NOTE: デモの詳細はすべて、デモ インデックス ページでご覧いただけます。 diff --git a/modules/ROOT/pages/ja/general/getting-started-with-vantagecloud-lake.adoc b/modules/ROOT/pages/ja/general/getting-started-with-vantagecloud-lake.adoc index b546bc39f..3d8a72dd5 100644 --- a/modules/ROOT/pages/ja/general/getting-started-with-vantagecloud-lake.adoc +++ b/modules/ROOT/pages/ja/general/getting-started-with-vantagecloud-lake.adoc @@ -24,9 +24,10 @@ IMPORTANT: VantageCloud Lake のサインオン リンクと資格情報を取 Teradataが提供するURL(*_ourcompany.innovationlabs.teradata.com_*など)に移動し、サインオンします。 * 既存の顧客は、組織管理者のユーザー名 (電子メール アドレス) とパスワードを使用してサインオンできます。 -* clear​130 / 5,000翻訳結果翻訳の結果新しい顧客は、組織管理者のユーザー名 (ウェルカム レターから: 電子メール アドレス) と作成したパスワードを使用してサインオンできます。 +* 新しい顧客は、組織管理者のユーザー名 (ウェルカム レターから: 電子メール アドレス) と作成したパスワードを使用してサインオンできます。 + +NOTE: https://login.customer.teradata.com/ext/pwdreset/Identify?AdapterId=CDSCustomer[ここ] をクリックして、組織の管理者パスワードをリセットします。 -NOTE: https://login.customer.teradata.com/ext/pwdreset/Identify?AdapterId=CDSCustomer[ここ]をクリックして、組織の管理者パスワードをリセットします。 image::lake_sign_on.png[サインオン,align="center",width=50%] @@ -75,7 +76,7 @@ Lake+: プレミア 24x7 優先クラウドサポート + 業界データモデ image::lake_environment_configuration.png[環境の構成,align="center",width=50%] -IMPORTANT: *推定消費量*(右側)は、環境作成のためのガイダンスを提供します。詳細については、https://docs.teradata.com/r/Teradata-VantageCloud-Lake/Using-VantageCloud-Lake-Console-to-Manage-VantageCloud-Lake/Using-the-Consumption-Estimates[推定消費量の使用]を参照してください。 +IMPORTANT: *推定消費量* (右側)は、環境作成のためのガイダンスを提供します。詳細については、https://docs.teradata.com/r/Teradata-VantageCloud-Lake/Using-VantageCloud-Lake-Console-to-Manage-VantageCloud-Lake/Using-the-Consumption-Estimates[推定消費量の使用] を参照してください。 === プライマリ クラスタの構成 @@ -173,7 +174,7 @@ image::lake_database_cred.png[プライマリ クラスタの構成,align="cente === 詳細オプション -すぐに開始するには、*デフォルトを使用*を選択するか、追加のオプション設定を定義することができる。 +すぐに開始するには、*デフォルトを使用* を選択するか、追加のオプション設定を定義することができる。 image::lake_advanced_option_default.png[ユーザーのデフォルトを使用する詳細オプション,align="center",width=50%] @@ -186,38 +187,41 @@ image::lake_advanced_option_default.png[ユーザーのデフォルトを使用 選択したインスタンスサイズに対して、インスタンスあたりのAMP数を選択します。 | AWS:ストレージの暗号化 -| 顧客データの暗号化を設定します。https://docs.aws.amazon.com/kms/latest/developerguide/find-cmk-id-arn.html[キー ID とキー ARN を検索する]を参照してください + -* Teradataによる管理 + -* 顧客管理 + +| 顧客データの暗号化を設定します。https://docs.aws.amazon.com/kms/latest/developerguide/find-cmk-id-arn.html[キー ID とキー ARN を検索する] を参照してください + +* Teradataによる管理 ++ +* 顧客管理 ++ * キーエイリアスARN |==== image::lake_advanced_option.png[ユーザー定義の詳細オプション,align="center",width=50%] -すべての情報を確認し、*CREATE ENVIRONMENT*ボタンをクリックします。 +すべての情報を確認し、*CREATE ENVIRONMENT* ボタンをクリックします。 image::lake_create_environment.png[環境の作成ボタン,align="center",width=50%] -デプロイには数分かかります。完了すると、作成された環境がカード ビューとして [*環境*] セクションに表示されます (環境の名前は Quickstart_demo)。 +デプロイには数分かかります。完了すると、作成された環境がカード ビューとして *環境* セクションに表示されます (環境の名前は Quickstart_demo)。 image::lake_available_environment.png[新しく作成された使用可能な環境,align="center",width=50%] == パブリック インターネットからのアクセス環境 -作成された環境には、コンソールからのみアクセスできます。これを変更するには、作成された環境変数をクリックして、*設定*タブに移動します。 +作成された環境には、コンソールからのみアクセスできます。これを変更するには、作成された環境変数をクリックして、*設定* タブに移動します。 image::lake_settings_menu.png[作成した環境の設定メニュー,align="center",width=75%] -[*設定*] で [*インターネット接続*] チェックボックスをオンにし、環境へのアクセスに使用する IP アドレスを CIDR 形式で指定します (たとえば、192.168.2.0/24 は 192.168.2.0 から 192.168.2.255 の範囲内のすべての IP アドレスを指定します)。 +*設定* で *インターネット接続* チェックボックスをオンにし、環境へのアクセスに使用する IP アドレスを CIDR 形式で指定します (たとえば、192.168.2.0/24 は 192.168.2.0 から 192.168.2.255 の範囲内のすべての IP アドレスを指定します) -NOTE: インターネット接続の設定の詳細については、 https://docs.teradata.com/r/Teradata-VantageCloud-Lake/Getting-Started-First-Sign-On-by-Organization-Admin/Step-2-Setting-the-Environment-Connection-Type/Setting-Up-an-Internet-Connection[こちら] をご覧ください。 +NOTE: インターネット接続の設定の詳細については、https://docs.teradata.com/r/Teradata-VantageCloud-Lake/Getting-Started-First-Sign-On-by-Organization-Admin/Step-2-Setting-the-Environment-Connection-Type/Setting-Up-an-Internet-Connection[こちら] をご覧ください。 image::lake_ip_addresses.png[IPホワイトリスト,align="center",width=50%] -ページの右上にある*保存*ボタンをクリックして、変更を確認します。 + +ページの右上にある *保存* ボタンをクリックして、変更を確認します。 ++ -*環境*のセクションに戻って、環境庁カードを確認してください。現在、*パブリック インターネット*にアクセスできます。 +*環境* のセクションに戻って、環境庁カードを確認してください。現在、*パブリック インターネット* にアクセスできます。 image::lake_public_internet_cv.png[パブリック インターネット カード ビュー,align="center",width=50%] diff --git a/modules/ROOT/pages/ja/general/getting.started.utm.adoc b/modules/ROOT/pages/ja/general/getting.started.utm.adoc index 8803ae759..65e141044 100644 --- a/modules/ROOT/pages/ja/general/getting.started.utm.adoc +++ b/modules/ROOT/pages/ja/general/getting.started.utm.adoc @@ -23,8 +23,8 @@ NOTE: ローカルマシンに管理者権限がありませんか?xref:run-vant === 必要なソフトウェアをダウンロードする -. link:https://downloads.teradata.com/download/database/teradata-express-for-vmware-player[Vantage Express]の最新バージョン。これまでに Teradata Downloads Web サイトを使用したことがない場合は、登録する必要があります。 -. link:https://mac.getutm.app/[UTM]の最新バージョン。 +. link:https://downloads.teradata.com/download/database/teradata-express-for-vmware-player[Vantage Express] の最新バージョン。これまでに Teradata Downloads Web サイトを使用したことがない場合は、登録する必要があります。 +. link:https://mac.getutm.app/[UTM] の最新バージョン。 === UTMインストーラを実行する @@ -39,17 +39,17 @@ NOTE: ローカルマシンに管理者権限がありませんか?xref:run-vant . `Hardware`画面で、少なくとも4 GBのメモリと少なくとも1つのCPUコアを割り当てます。10GB RAM と 2 つの CPU を推奨します。 + image::utm.hardware.png[UTM Hardware, width=500, align="left"] -. `Storage`画面で`Next`をクリックして、デフォルトを受け入れる。 +. `Storage` 画面で `Next` をクリックして、デフォルトを受け入れます。 . `Shared Direct` 画面で `Next` をクリックします。 . `Summary` 画面で `Open VM Settings` にチェックを入れ、 `Save`をクリックします。 -. セットアップウィザードを実行する。以下のタブを調整するだけで済みます。 -* *QEMU* - `UEFI Boot` オプションを無効にする +. セットアップウィザードを実行します。以下のタブを調整するだけで済みます。 +* *QEMU* - `UEFI Boot` オプションを無効にします。 * *Network* - ホスト コンピューター上で ssh (22) ポートと Vantage (1025) ポートを公開します。 + image::utm.network.png[UTMネットワーク, width=500] -. ドライブのマッピング: -* デフォルトの`IDE Drive`を削除する。 -* ダウンロードした VM zip ファイルからディスク ファイルをインポートして、3 つの Vantage Express ドライブをマッピングします。`-disk1`、`-disk2`、`-disk3`の正しい順序でマッピングするようにしてください。最初のディスクはブート可能であり、データベース自体が含まれています。Disks 2と3はいわゆる`pdisks`と呼ばれ、データを含んでいます。ファイルをインポートすると、UTMは自動的に`vmdk`から`qcow2`形式に変換する。各ディスクが `IDE` インターフェースを使用して構成されていることを確認してください。 +. ドライブをマップします。 +* デフォルトの `IDE Drive` を削除します。 +* ダウンロードした VM zip ファイルからディスク ファイルをインポートして、3 つの Vantage Express ドライブをマッピングします。`-disk1`、`-disk2`、`-disk3` の正しい順序でマッピングするようにしてください。最初のディスクはブート可能であり、データベース自体が含まれています。Disks 2と3はいわゆる `pdisks` と呼ばれ、データを含んでいます。ファイルをインポートすると、UTMは自動的に `vmdk` から `qcow2` 形式に変換する。各ディスクが `IDE` インターフェースを使用して構成されていることを確認してください。 + image::utm.drives.png[UTMドライブ, width=500] + diff --git a/modules/ROOT/pages/ja/general/getting.started.vbox.adoc b/modules/ROOT/pages/ja/general/getting.started.vbox.adoc index c52cfc564..fcc9d5335 100644 --- a/modules/ROOT/pages/ja/general/getting.started.vbox.adoc +++ b/modules/ROOT/pages/ja/general/getting.started.vbox.adoc @@ -13,7 +13,7 @@ include::../partials/getting.started.intro.adoc[] . 以下のオペレーティング システムのいずれかを使用するコンピューター: Windows 10、Linux、または Intel ベースの MacOS。 + -NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[]を参照してください。 +NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[] を参照してください。 . 少なくとも 1 つのコアと 6GB RAM を仮想マシン専用にできる 30GB のディスク領域と十分な CPU および RAM。 . ソフトウェアをインストールして実行できる管理者権限。 + @@ -28,7 +28,7 @@ NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[] NOTE: これまでに Teradata Downloads Web サイトを使用したことがない場合は、まず登録する必要があります。 . link:https://www.virtualbox.org/wiki/Downloads[VirtualBox,window=_blank]、バージョン6.1。 + -NOTE: `brew`およびその他のパッケージ マネージャを使用して VirtualBox をインストールすることもできます。 +NOTE: `brew` およびその他のパッケージ マネージャを使用して VirtualBox をインストールすることもできます。 === インストーラを実行する @@ -52,7 +52,7 @@ include::../partials/run.vantage.adoc[] include::../partials/running.sample.queries.adoc[] -== VirtualBox ゲスト拡張機能の更新する +== VirtualBox ゲスト拡張機能を更新する VirtualBox ゲスト拡張機能は、VM 内で実行されるソフトウェアです。これにより、VirtualBox上でのVMの実行が高速化されます。また、VM 画面の解像度とサイズ変更に対する応答性も向上します。双方向のクリップボードを実装し、ホストとゲストの間でドラッグ アンド ドロップを行います。VM 内の VirtualBox ゲスト拡張機能は、VirtualBox インストールのバージョンと一致する必要があります。最適なパフォーマンスを得るには、VirtualBox ゲスト拡張機能を更新する必要がある場合があります。 @@ -61,7 +61,7 @@ VirtualBox ゲスト拡張機能を更新するには: . `Storage` セクションの `SATA Port 3: [Optical Drive]` をクリックして、VirtualBox ゲスト拡張機能DVD を挿入します。 + image::insert-guest-additions-dvd.png[Guest Additions DVD を挿入する, width=50%] -. VMウィンドウに戻り、`Gnome ターミナル`アプリケーションを起動します。 +. VMウィンドウに戻り、`Gnome ターミナル` アプリケーションを起動します。 . ターミナルで以下のコマンドを実行します。 + [source, bash, id="update_guest_additions", role="content-editable emits-gtm-events"] diff --git a/modules/ROOT/pages/ja/general/getting.started.vmware.adoc b/modules/ROOT/pages/ja/general/getting.started.vmware.adoc index e69208609..79cec3722 100644 --- a/modules/ROOT/pages/ja/general/getting.started.vmware.adoc +++ b/modules/ROOT/pages/ja/general/getting.started.vmware.adoc @@ -13,7 +13,7 @@ include::../partials/getting.started.intro.adoc[] . 次のオペレーティング システムのいずれかを使用するコンピュータ: Windows、Linux、または Intel ベースの MacOS。 + -NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[]を参照してください。 +NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[] を参照してください。 . 少なくとも 1 つのコアと 6GB RAM を仮想マシン専用にできる 30GB のディスク領域と十分な CPU および RAM。 . ソフトウェアをインストールして実行できる管理者権限。 + @@ -23,23 +23,24 @@ NOTE: M1/M2 MacOSシステムについては、xref:getting.started.utm.adoc[] === 必要なソフトウェアのダウンロード -. link:https://downloads.teradata.com/download/database/teradata-express-for-vmware-player[Vantage Express]の最新バージョン。これまでに Teradata Downloads Web サイトを使用したことがない場合は、登録する必要があります。 -. link:https://www.vmware.com/products/workstation-player.html[VMware Workstation Player]。 +. link:https://downloads.teradata.com/download/database/teradata-express-for-vmware-player[Vantage Express] の最新バージョン。これまでに Teradata Downloads Web サイトを使用したことがない場合は、登録する必要があります。 +. link:https://www.vmware.com/products/workstation-player.html[VMware Workstation Player] 。 + -IMPORTANT: 営利団体では、VMware Workstation Playerを使用するために商用ライセンスが必要です。VMwareライセンスを取得しない場合は、xref:getting.started.vbox.adoc[VirtualBox]でVantage Expressを実行できます。 +IMPORTANT: 営利団体では、VMware Workstation Playerを使用するために商用ライセンスが必要です。VMwareライセンスを取得しない場合は、xref:getting.started.vbox.adoc[VirtualBox] でVantage Expressを実行できます。 + -IMPORTANT: VMware は、MacOS 用の VMware Workstation Player を提供していません。Macを使用している場合は、代わりにlink:https://www.vmware.com/products/fusion/fusion-evaluation.html[VMware Fusion]をインストールする必要があります。これは有料製品ですが、VMware では 30 日間の無料試用版を提供しています。または、xref:getting.started.vbox.adoc[VirtualBox]またはxref:getting.started.utm.adoc[UTM]上でVantage Expressを実行することもできます。 -. Windowsでは、Vantage Expressを解凍するためにlink:https://www.7-zip.org/download.html[7 zip]も必要です。 +IMPORTANT: VMware は、MacOS 用の VMware Workstation Player を提供していません。Macを使用している場合は、代わりに link:https://www.vmware.com/products/fusion/fusion-evaluation.html[VMware Fusion] をインストールする必要があります。これは有料製品ですが、VMware では 30 日間の無料試用版を提供しています。または、xref:getting.started.vbox.adoc[VirtualBox] または xref:getting.started.utm.adoc[UTM] 上でVantage Expressを実行することもできます。 +. Windowsでは、Vantage Expressを解凍するために link:https://www.7-zip.org/download.html[7 zip] も必要です。 -=== インストーラを実をする +=== インストーラを実行する . インストーラを実行し、デフォルト値を受け入れて、VMware Player または VMware Fusion をインストールします。 -. Windowsの場合は、`7zip`をインストールします。 +. Windowsの場合は、`7zip` をインストールします。 === Vantage Express を実行する . Vantage Expressをダウンロードしたディレクトリに移動し、ダウンロードしたファイルを解凍します。 -. `.vmx`ファイルをダブルクリックします。これにより、VMware Player/FusionでVMイメージが起動されます。 +. `.vmx` ファイルをダブルクリックします。これにより、VMware Player/FusionでVMイメージが起動されます。 + include::../partials/run.vantage.adoc[] === サンプルクエリーを実行する diff --git a/modules/ROOT/pages/ja/general/install-teradata-studio-on-mac-m1-m2.adoc b/modules/ROOT/pages/ja/general/install-teradata-studio-on-mac-m1-m2.adoc index f228697d9..c22fbf9dd 100644 --- a/modules/ROOT/pages/ja/general/install-teradata-studio-on-mac-m1-m2.adoc +++ b/modules/ROOT/pages/ja/general/install-teradata-studio-on-mac-m1-m2.adoc @@ -14,14 +14,13 @@ == 実行する手順 -1. Rosetta バイナリ トランスレータをインストールして有効にする。link:https://support.apple.com/en-us/HT211861[Apple Mac Rosetta インストールガイド]に従います。 +1. Rosetta バイナリ トランスレータをインストールして有効にする。link:https://support.apple.com/en-us/HT211861[Apple Mac Rosetta インストールガイド] に従います。 2. お好みのベンダーから x86 64 ビット ベースの JDK 11 をダウンロードしてインストールします。例えば、x86 64 ビット JDK 11 を link:https://www.azul.com/downloads/?version=java-11-lts&os=macos&architecture=x86-64-bit&package=jdkGet[Azul] -からダウンロードできます。 + からダウンロードできます。 3. Teradata ダウンロード ページから最新の Teradata Studio または Teradata Studio Express リリースをダウンロードします。 * link:https://downloads.teradata.com/download/tools/teradata-studio[Teradata Studio] * link:https://downloads.teradata.com/download/tools/teradata-studio-express[Teradata Studio Express] -4. Teradata Studio/Teradata Studio Expressをインストールします。詳細については 、link:{attachmentsdir}/Studio-Express-InstallGuide.pdf[「Teradata Studio および Teradata Studio Express インストール ガイド」] を参照してください。 - +4. Teradata Studio/Teradata Studio Expressをインストールします。詳細については 、link:{attachmentsdir}/Studio-Express-InstallGuide.pdf[Teradata Studio および Teradata Studio Express インストール ガイド] を参照してください。 == まとめ diff --git a/modules/ROOT/pages/ja/general/jdbc.adoc b/modules/ROOT/pages/ja/general/jdbc.adoc index 96c9f930e..93afd90a5 100644 --- a/modules/ROOT/pages/ja/general/jdbc.adoc +++ b/modules/ROOT/pages/ja/general/jdbc.adoc @@ -16,8 +16,8 @@ * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* JDKが必要で -* Mavenが必要で +* JDK +* Maven == Maven プロジェクトに依存関係を追加する @@ -29,7 +29,7 @@ Teradata JDBC ドライバを依存関係として Maven POM XML ファイルに == クエリーを送信するコード -NOTE: この手順では、Vantage データベースがポート `1025` の`localhost` で利用できることを前提としています。ラップトップでVantage Expressを実行している場合は、VMからホストマシンにポートを公開する必要があります。ポートを転送する方法については、仮想化ソフトウェアのドキュメントを参照してください。 +NOTE: この手順では、Vantage データベースがポート `1025` の `localhost` で利用できることを前提としています。ラップトップでVantage Expressを実行している場合は、VMからホストマシンにポートを公開する必要があります。ポートを転送する方法については、仮想化ソフトウェアのドキュメントを参照してください。 プロジェクトが設定されます。残っているのは、ドライバをロードし、接続パラメータと認証パラメータを渡し、クエリーを実行することだけです。 diff --git a/modules/ROOT/pages/ja/general/jupyter.adoc b/modules/ROOT/pages/ja/general/jupyter.adoc index 8d254c151..4873f2541 100644 --- a/modules/ROOT/pages/ja/general/jupyter.adoc +++ b/modules/ROOT/pages/ja/general/jupyter.adoc @@ -5,7 +5,7 @@ :page-email: adam.tworkiewicz@teradata.com :page-revdate: 2022 年 11 月 10 日 :description: Jupyter Notebookから Teradata Vantage を使用する -:keywords: データ ウェアハウス、コンピューティング ストレージの分離、teradata、vantage、クラウド データ プラットフォーム、JDBC、Java アプリケーション、ビジネス インテリジェンス、エンタープライズ分析、jupyter、teradatasql、ipython-sql、teradatasqlalchemy +:keywords: data warehouses, compute storage separation, teradata, vantage, cloud data platform, JDBC, java applications, business intelligence, enterprise analytics, jupyter, teradatasql, ipython-sql, teradatasqlalchemy include::../partials/jupyter_notebook_clearscape_analytics_note.adoc[] @@ -18,12 +18,12 @@ include::../partials/vantage_clearscape_analytics.adoc[] Jupyter Notebook から Vantage に接続するには、いくつかの方法があります。 -1. <<_teradata_libraries,通常の Python/R カーネル Notebookで Python または R ライブラリを使用します>> 。このオプションは、独自のDockerイメージを生成できない制限された環境にいる場合にうまく機能します。また、Notebook内で SQL と Python/R を混在させる必要がある従来のデータサイエンス シナリオでも役立ちます。Jupyter に精通していて、独自の優先ライブラリと拡張機能のセットがある場合は、このオプションから始めてください。 +1. <<_teradata_libraries,通常の Python/R カーネル Notebookで Python または R ライブラリを使用する >> - このオプションは、独自のDockerイメージを生成できない制限された環境にいる場合にうまく機能します。また、Notebook内で SQL と Python/R を混在させる必要がある従来のデータサイエンス シナリオでも役立ちます。Jupyter に精通していて、独自の優先ライブラリと拡張機能のセットがある場合は、このオプションから始めてください。 2.<<_teradata_jupyter_docker_image,Teradata Jupyter Docker イメージを使用する>> - Teradata Jupyter Docker イメージには、Teradata SQL カーネル (詳細は後述)、`teradataml` および `tdplyr` ライブラリ、Python および R ドライバーがバンドルされています。また、Teradata 接続の管理、Vantage データベース内のオブジェクトの探索を可能にする Jupyter 拡張機能も含まれています。SQLを頻繁に使用する場合や、視覚的なナビゲータが役立つ場合に便利です。Jupyter を初めて使用する場合、またはライブラリと拡張機能の厳選されたアセンブリを入手したい場合は、このオプションから始めてください。 === Teradataライブラリ -このオプションでは、通常の Jupyter Lab Notebookを使用します。Teradata Python ドライバをロードし、Python コードから使用する方法を見ていきます。また、SQLのみのセルのサポートを追加する`ipython-sql`拡張に機能も検討します。 +このオプションでは、通常の Jupyter Lab Notebookを使用します。Teradata Python ドライバをロードし、Python コードから使用する方法を見ていきます。また、SQLのみのセルのサポートを追加する `ipython-sql` 拡張に機能も検討します。 1. シンプルな Jupyter Lab Notebookから始めます。ここでは Dockerを使用していますが、Jupyter Hub、Google Cloud AI Platform Notebooks、AWS SageMaker Notebooks、Azure ML Notebooks など、Notebookを起動する任意のメソッドを使用できます。 + @@ -76,7 +76,7 @@ pd.read_sql("SELECT * FROM dbc.dbcinfo", con = db_connection_string) import sys !{sys.executable} -m pip install ipython-sql teradatasqlalchemy ---- -7. `ipython-sql`をロードし、db接続文字列を定義します。 +7. `ipython-sql` をロードし、db接続文字列を定義します。 + [source, ipython, role="content-editable"] ---- @@ -86,7 +86,7 @@ import sys # See https://pypi.org/project/teradatasqlalchemy/ for details. %sql teradatasql://dbc:dbc@host.docker.internal/dbc ---- -8. `%sql`と`%%sql`の魔法が使えるようになりました。テーブル内のデータを調査したいとします。以下のようなセルを作成できます。 +8. `%sql` と `%%sql` の魔法が使えるようになりました。テーブル内のデータを調査したいとします。以下のようなセルを作成できます。 + [source, ipython] ---- @@ -101,11 +101,11 @@ result = %sql SELECT * FROM dbc.dbcinfo result.DataFrame() ---- -ipython-sql には、変数置換、`matplotlib` によるプロット、ローカル CSV ファイルへの結果の書き込みやデータベースへの結果の書き込みなど、他にも多くの機能があります。例については link:https://github.com/Teradata/quickstarts/blob/main/modules/ROOT/attachments/vantage-with-python-libraries.ipynb[デモ Notebookを] 、完全なリファレンスについては link:https://github.com/catherinedevlin/ipython-sql/[ipython-sql github リポジトリ] を参照してください。 +ipython-sql には、変数置換、`matplotlib` によるプロット、ローカル CSV ファイルへの結果の書き込みやデータベースへの結果の書き込みなど、他にも多くの機能があります。例については link:https://github.com/Teradata/quickstarts/blob/main/modules/ROOT/attachments/vantage-with-python-libraries.ipynb[Notebookのデモ] を 、完全なリファレンスについては link:https://github.com/catherinedevlin/ipython-sql/[ipython-sql github リポジトリ] を参照してください。 === Teradata Jupyter Dockerイメージ -Teradata Jupyter Dockerイメージは、 `jupyter/datascience-notebook`Dockerイメージに基づいて構築されています。Teradata SQL カーネル、Teradata Python および R ライブラリ、Jupyter 拡張機能が追加され、Teradata Vantage との対話時の生産性が向上します。このイメージには、SQL カーネルと Teradata ライブラリの使用方法を示すサンプル Notebookも含まれています。 +Teradata Jupyter Dockerイメージは、 `jupyter/datascience-notebook` Dockerイメージに基づいて構築されています。Teradata SQL カーネル、Teradata Python および R ライブラリ、Jupyter 拡張機能が追加され、Teradata Vantage との対話時の生産性が向上します。このイメージには、SQL カーネルと Teradata ライブラリの使用方法を示すサンプル Notebookも含まれています。 SQL カーネルと Teradata Jupyter 拡張機能は、SQL インターフェースの使用に多くの時間を費やす人にとって役立ちます。これは、多くの場合、Teradata Studio を使用するよりも便利なNotebook エクスペリエンスと考えてください。Teradata Jupyter Docker イメージは、Teradata Studio を置き換えようとするものではありません。すべての機能が備わっているわけではありません。軽量の Web ベースのインターフェースを必要とし、Notebook UI を楽しむ人向けに設計されています。 @@ -113,8 +113,9 @@ Teradata Jupyter Dockerイメージは、Jupyter をローカルで実行する 1. イメージを実行します。 + -NOTE: `-e"accept_license=Y` を渡すと、Teradata Jupyter Extensions のhttps://github.com/Teradata/jupyterextensions/blob/master/licensefiles/license.txt[使用許諾契約]に同意したことになります。 +NOTE: `-e"accept_license=Y` を渡すと、Teradata Jupyter Extensions の https://github.com/Teradata/jupyterextensions/blob/master/licensefiles/license.txt[使用許諾契約] に同意したことになります。 + + [source, bash, id="jupyter_td_image_first_run", role="content-editable emits-gtm-events"] ---- docker volume create notebooks @@ -134,8 +135,8 @@ Enter this URL in your browser: http://localhost:8888?token=96a3ab874a03779c400 * Or enter this token when prompted by Jupyter: 96a3ab874a03779c400966bf492fe270c2221cdcc74b61ed * If you used a different port to run your Docker, replace 8888 with your port number ---- -3. URL を開き、ファイル エクスプローラを使用してNotebook `67jupyterextensions -> notebooks -> sql -> GettingStartedDemo.ipynb`を開きます。 -4.Teradata SQL カーネルのデモを確認してください。 +3. URL を開き、ファイル エクスプローラを使用してNotebook `jupyterextensions -> notebooks -> sql -> GettingStartedDemo.ipynb`を開きます。 +4. Teradata SQL カーネルのデモを確認してください。 + image::gettingstarteddemo.ipynb.png[GettingStartedDemo.ipynbのスクリーンショット, width=100%] diff --git a/modules/ROOT/pages/ja/general/local.jupyter.hub.adoc b/modules/ROOT/pages/ja/general/local.jupyter.hub.adoc index 165e65fb7..92b0013f2 100644 --- a/modules/ROOT/pages/ja/general/local.jupyter.hub.adoc +++ b/modules/ROOT/pages/ja/general/local.jupyter.hub.adoc @@ -13,7 +13,7 @@ 1. Teradata Jupyter Dockerイメージを使用する。 2. 既存のDockerイメージをカスタマイズして、Teradata 拡張機能を含める。 -このページでは、2つのオプションの詳細な手順を説明します。この手順は、手順は、お客様のJupyterHubのデプロイがlink:https://zero-to-jupyterhub.readthedocs.io/en/latest/index.html[Zero to JupyterHub with Kubernetes]をベースにしていることを前提にしています。 +このページでは、2つのオプションの詳細な手順を説明します。この手順は、手順は、お客様のJupyterHubのデプロイが link:https://zero-to-jupyterhub.readthedocs.io/en/latest/index.html[Zero to JupyterHub with Kubernetes] をベースにしていることを前提にしています。 include::../partials/vantage_clearscape_analytics.adoc[] @@ -30,8 +30,8 @@ Teradata は 、link:https://hub.docker.com/r/jupyter/datascience-notebook/[jupy === Teradata Jupyter Dockerイメージをレジストリにインストールする -1. link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter] のページに移動し、Dockerイメージをダウンロードします。tarballで、`teradatajupyterlabext_VERSION.tar.gz`という形式になっています。 -2. イメージをロードします。 +1. link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter] のページに移動し、Dockerイメージをダウンロードします。tarballで、`teradatajupyterlabext_VERSION.tar.gz` という形式になっています。 +2. イメージをロードします。 + [source, bash, role="content-editable"] ---- @@ -55,7 +55,7 @@ docker tag OLD_IMAGE_NAME NEW_IMAGE_NAME === JupyterHub で Teradata Jupyter Dockerイメージを使用する -1. Teradata Jupyter Dockerイメージを JupyterHub クラスタで直接使用するには、 link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/user-environment.html#choose-and-use-an-existing-docker-image[JupyterHubドキュメント]の説明に従ってオーバーライド ファイルを変更します。 `REGISTRY_URL` と `VERSION` を上記の手順で適切な値に置き換えてください。 +1. Teradata Jupyter Dockerイメージを JupyterHub クラスタで直接使用するには、 link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/user-environment.html#choose-and-use-an-existing-docker-image[JupyterHubドキュメント] の説明に従ってオーバーライド ファイルを変更します。 `REGISTRY_URL` と `VERSION` を上記の手順で適切な値に置き換えてください。 + [source, yaml, role="content-editable"] ---- @@ -64,11 +64,11 @@ singleuser: name: REGISTRY_URL/teradatajupyterlabext_VERSION tag: latest ---- -2. link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/extending-jupyterhub.html#applying-configuration-changes[JupyterHub ドキュメント]に記載されているように、クラスタに変更を適用します。 +2. link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/extending-jupyterhub.html#applying-configuration-changes[JupyterHub ドキュメント] に記載されているように、クラスタに変更を適用します。 + -TIP: 複数のプロファイルを使用することで、ユーザーがJupyterHubにログインする際に使用する画像を選択することができます。複数のプロファイルを設定する詳細な手順と例については、link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/user-environment.html#using-multiple-profiles-to-let-users-select-their-environment[JupyterHub ドキュメント]を参照してください。 +TIP: 複数のプロファイルを使用することで、ユーザーがJupyterHubにログインする際に使用する画像を選択することができます。複数のプロファイルを設定する詳細な手順と例については、link:https://zero-to-jupyterhub.readthedocs.io/en/latest/jupyterhub/customizing/user-environment.html#using-multiple-profiles-to-let-users-select-their-environment[JupyterHub ドキュメント] を参照してください。 -=== Teradata Jupyter Dockerイメージのカスタマイズ +=== Teradata Jupyter Dockerイメージをカスタマイズする Teradata Jupyter Dockerイメージにバンドルされていないパッケージやノートブックが必要な場合、Teradataイメージをベースイメージとして使用し、その上に新しいイメージをビルドすることをお勧めします。 @@ -88,8 +88,8 @@ COPY notebooks/. /tmp/JupyterLabRoot/DemoNotebooks/ Teradata SQLカーネルとエクステンションは、現在使用している既存のイメージに含めることができます。 -1. link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter]ページから、zip圧縮されたTeradata Jupyter extensionsパッケージバンドルがダウンロードできます。 既存の -DockerイメージがLinuxベースである場合は、Linux版のダウンロードを使用します。 そうでない場合は、使用しているプラットフォーム用にダウンロードします。 .zipファイルには、Teradata SQL Kernel、エクステンション、サンプル +1. link:https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyter] ページから、zip圧縮されたTeradata Jupyter extensionsパッケージバンドルがダウンロードできます。既存の +DockerイメージがLinuxベースである場合は、Linux版のダウンロードを使用します。そうでない場合は、使用しているプラットフォーム用にダウンロードします。.zipファイルには、Teradata SQL Kernel、エクステンション、サンプル ノートブックが含まれています。 2. バンドル ファイルを作業ディレクトリに解凍します。 3. 以下は、既存のDockerイメージにTeradata Jupyterエクステンションを追加するためのDockerfileの例です。Dockerfileを使用して新しいDockerイメージを構築し、イメージを指定のレジストリにプッシュし、新しいイメージをシングルユーザーイメージとして使用するために上記のようにオーバーライドファイルを変更し、変更をクラスタに適用します。 diff --git a/modules/ROOT/pages/ja/general/ml.adoc b/modules/ROOT/pages/ja/general/ml.adoc index 16eb61abc..6cd38962e 100644 --- a/modules/ROOT/pages/ja/general/ml.adoc +++ b/modules/ROOT/pages/ja/general/ml.adoc @@ -19,7 +19,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] == サンプルデータをロードする -この例では、`val`データベースのサンプルデータを使用します。`accounts`、`customer`、`16transactions`のテーブルを使用します。この過程でいくつかのテーブルを作成しますが、`val` データベースにテーブルを作成する際に問題が発生する可能性があるため、独自のデータベース `td_analytics_functions_demo` を作成しましょう。 +この例では、`val` データベースのサンプルデータを使用します。`accounts`、`customer`、`16transactions` のテーブルを使用します。この過程でいくつかのテーブルを作成しますが、`val` データベースにテーブルを作成する際に問題が発生する可能性があるため、独自のデータベース `td_analytics_functions_demo` を作成しましょう。 [source, teradata-sql] ---- @@ -50,13 +50,13 @@ SELECT * FROM val.transactions == サンプルデータを理解する -サンプルテーブルが`td_analytics_functions_demo`にロードされたので、データを調べてみましょう。これは、銀行の顧客(700行ほど)、口座(1400行ほど)、取引(77,000行ほど)の単純で架空のデータセットです。これらは以下のように相互に関連しています。 +サンプルテーブルが `td_analytics_functions_demo` にロードされたので、データを調べてみましょう。これは、銀行の顧客(700行ほど)、口座(1400行ほど)、取引(77,000行ほど)の単純で架空のデータセットです。これらは以下のように相互に関連しています。 image::banking.model.png[銀行モデル, width=100%] このハウツーの後半では、テーブル内のクレジット カードに関連しないすべての変数に基づいて、銀行顧客のクレジット カードの月平均残高を予測するモデルを構築できるかどうかを検討していきます。 -== データセットの準備 +== データセットを準備する 3つの異なるテーブルにデータがあり、それらを結合してフィーチャを作成します。まず、結合されたテーブルを作成します。 @@ -97,11 +97,11 @@ image::joined_table_ml.png[結合されたテーブル, width=100%] == 特徴量エンジニアリング -データを見ると、`cc_avg_bal`を予測するために考慮できる特徴がいくつかあることがわかります。 +データを見ると、`cc_avg_bal`を予測するために考慮できる特徴がいくつかあることがわかります。 === TD_OneHotEncodingFit -このデータセットには、`gender`、`marital status`、`state code`などのカテゴリ機能がある。データベース分析関数 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_OneHotEncodingFit[TD_OneHotEncodingFit,window="_blank" ]を 利用して、カテゴリをワンホット数値ベクトルにエンコードします。 +このデータセットには、`gender`、`marital status`、`state code` などのカテゴリ機能がある。データベース分析関数 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_OneHotEncodingFit[TD_OneHotEncodingFit,window="_blank" ] を 利用して、カテゴリをワンホット数値ベクトルにエンコードします。 [source, teradata-sql] ---- @@ -119,7 +119,7 @@ Approach('Auto') === TD_ScaleFit -データを見ると、`tot_income`、`tot_age`、`ck_avg_bal`などのいくつかの列は、異なる範囲の値を持っています。勾配降下法などの最適化アルゴリズムの場合、より高速な収束、スケールの一貫性、およびモデルのパフォーマンスの向上のために、値を同じスケールに正規化することが重要です。 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_ScaleFit[TD_ScaleFit, window="_blank"] 関数を利用して、さまざまなスケールで値を正規化します。 +データを見ると、`tot_income`、`tot_age`、`ck_avg_bal` などのいくつかの列は、異なる範囲の値を持っています。勾配降下法などの最適化アルゴリズムの場合、より高速な収束、スケールの一貫性、およびモデルのパフォーマンスの向上のために、値を同じスケールに正規化することが重要です。 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_ScaleFit[TD_ScaleFit, window="_blank"] 関数を利用して、さまざまなスケールで値を正規化します。 [source, teradata-sql] ---- @@ -135,7 +135,7 @@ Approach('Auto') === TD_ColumnTransformer -Teradataのデータベース分析関数は、通常、データ変換のためにペアで動作します。最初のステップは、データの "fitting" に専念します。次に、第2の関数は、フィッティングプロセスから導出されたパラメータを利用して、データに対して実際の変換を実行します。 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_ColumnTransformer[TD_ColumnTransformer, window="_blank" ]は、 FIT テーブルを関数に受け取り、入力テーブルの列を 1 回の操作で変換します。 +Teradataのデータベース分析関数は、通常、データ変換のためにペアで動作します。最初のステップは、データの "fitting" に専念します。次に、第2の関数は、フィッティングプロセスから導出されたパラメータを利用して、データに対して実際の変換を実行します。 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Feature-Engineering-Transform-Functions/TD_ColumnTransformer[TD_ColumnTransformer, window="_blank" ] は、 FIT テーブルを関数に受け取り、入力テーブルの列を 1 回の操作で変換します。 [source, teradata-sql] ---- @@ -149,7 +149,7 @@ ON scale_fit_joined_table_input AS ScaleFitTable DIMENSION ) WITH DATA; ---- -変換を実行すると、以下のイメージに示すように、カテゴリ列がワンホット エンコードされ、数値がスケーリングされたことがわかります。たとえば、`tot_income`は[0,1]の範囲にあり、`gender`は`gender_0`、`gender_1`、`gender_other`に1ホットエンコードされます。 +変換を実行すると、以下のイメージに示すように、カテゴリ列がone-hot エンコードされ、数値がスケーリングされたことがわかります。たとえば、`tot_income` は[0,1]の範囲にあり、`gender` は`gender_0`、`gender_1`、`gender_other` に one-hot エンコードされます。 image::ml_tot_income_scaled.png[合計所得金額換算, width=50%] @@ -174,11 +174,11 @@ Seed (42) ); ---- -以下のイメージからわかるように、この関数は新しい列 `TD_IsTrainRow`を追加します。 +以下のイメージからわかるように、この関数は新しい列 `TD_IsTrainRow` を追加します。 image::ml_train_col.png[行列のトレーニング, width=100%] -`TD_IsTrainRow`を使用して、トレーニング用とテスト用の2つのテーブルを作成します。 +`TD_IsTrainRow` を使用して、トレーニング用とテスト用の2つのテーブルを作成します。 [source, teradata-sql] ---- @@ -197,7 +197,7 @@ CREATE TABLE td_analytics_functions_demo.testing_table AS ( == 一般化線形モデルを使用したトレーニング -ここで 、link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Training-Functions/TD_GLM[TD_GLM, window="_blank"] データベース分析関数を使用して、トレーニング データセットでトレーニングします。`TD_GLM`関数は、データセットに対して回帰および分類の分析を実行する一般化線形モデル(GLM)です。ここでは、 `tot_income`、 `ck_avg_bal`、`cc_avg_tran_amt`、婚姻ステータス、性別、ステータスのワンホット エンコードされた値など、多数の入力列を使用しています。 `cc_avg_bal` は依存列または応答列であり、連続しているため、回帰問題となります。回帰には `Family` として `Gaussian` 、分類には `Binomial` として使用します。 +ここで 、link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Training-Functions/TD_GLM[TD_GLM, window="_blank"] データベース分析関数を使用して、トレーニング データセットでトレーニングします。`TD_GLM` 関数は、データセットに対して回帰および分類の分析を実行する一般化線形モデル(GLM)です。ここでは、 `tot_income`、 `ck_avg_bal`、`cc_avg_tran_amt`、婚姻ステータス、性別、ステータスのワンホット エンコードされた値など、多数の入力列を使用しています。 `cc_avg_bal` は依存列または応答列であり、連続しているため、回帰問題となります。回帰には `Family` として `Gaussian` 、分類には `Binomial` として使用します。 パラメータ `Tolerance` は、反復を停止するためにモデルの予測精度に必要な最小限の改善を示し、 `MaxIterNum` は認証される反復の最大数を示します。モデルは、最初に満たされた条件に基づいてトレーニングを終了します。例えば、以下の例では、58 回の反復後のモデルは `CONVERGED` になります。 @@ -222,7 +222,7 @@ image::ml_model_trained.png[トレーニングされたGLM, width=100%] == テストデータセットのスコアリング -次に、モデル `GLM_model_training` を使用して 、link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Scoring-Functions/TD_GLMPredict[TD_GLMPredict,window="_blank"] データベース分析関数を使用してテスト データセット `testing_table` をスコアリングします。 +次に、モデル `GLM_model_training` を使用して 、link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Scoring-Functions/TD_GLMPredict[TD_GLMPredict,window="_blank"] データベース分析関数を使用してテスト データセット `testing_table` をスコアリングします。 [source, teradata-sql] ---- @@ -242,7 +242,7 @@ image::ml_model_scored.png[スコア付けされたGLM, width=100%] == モデル評価 -最後に、スコア化された結果に基づいてモデルを評価します。ここでは link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Evaluation-Functions/TD_RegressionEvaluator[TD_RegressionEvaluator, window="_blank"] 関数を使用しています。モデルは、 `R2`、 `RMSE`、 `F_score`などのパラメータに基づいて評価できます。 +最後に、スコア化された結果に基づいてモデルを評価します。ここでは link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Model-Evaluation-Functions/TD_RegressionEvaluator[TD_RegressionEvaluator, window="_blank"] 関数を使用しています。モデルは、 `R2`、 `RMSE`、 `F_score` などのパラメータに基づいて評価できます。 [source, teradata-sql] ---- @@ -262,7 +262,7 @@ NOTE: このハウツーの目的は、特徴量エンジニアリングを説 == まとめ -このクイック スタートでは、Teradata Database Analytic 関数を使用して ML モデルを作成する方法を学習しました。`val`データベースから `customer`、`accounts`、 `transactions` のデータを使用して独自のデータベース `td_analytics_functions_demo` を構築しました。`TD_OneHotEncodingFit`、`TD_ScaleFit`、`TD_ColumnTransformer`を使用して列を変換することにより、特徴量エンジニアリングを実行しました。次に、テスト分割のトレーニングに `TD_TrainTestSplit` を使用しました。`TD_GLM`モデルを使用してトレーニングデータセットをトレーニングし、テストデータセットをスコア化しました。最後に、`TD_RegressionEvaluator`機能を用いてスコア化した結果を評価しました。 +このクイック スタートでは、Teradata Database Analytic 関数を使用して ML モデルを作成する方法を学習しました。`val` データベースから `customer`、`accounts`、 `transactions` のデータを使用して独自のデータベース `td_analytics_functions_demo` を構築しました。`TD_OneHotEncodingFit`、`TD_ScaleFit`、`TD_ColumnTransformer` を使用して列を変換することにより、特徴量エンジニアリングを実行しました。次に、テスト分割のトレーニングに `TD_TrainTestSplit` を使用しました。`TD_GLM` モデルを使用してトレーニングデータセットをトレーニングし、テストデータセットをスコア化しました。最後に、`TD_RegressionEvaluator` 機能を用いてスコア化した結果を評価しました。 == さらに詳しく * link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Analytic-Functions/Introduction-to-Analytics-Database-Analytic-Functions[Vantage データベース分析関数ユーザー ガイド,window="_blank"] diff --git a/modules/ROOT/pages/ja/general/mule.jdbc.example.adoc b/modules/ROOT/pages/ja/general/mule.jdbc.example.adoc index c7ac97e07..93c10261d 100644 --- a/modules/ROOT/pages/ja/general/mule.jdbc.example.adoc +++ b/modules/ROOT/pages/ja/general/mule.jdbc.example.adoc @@ -14,7 +14,7 @@ Teradata データベースにクエリーを実行し、REST API 経由で結 == 前提条件 -* Mulesoft Anypoint Studio。https://www.mulesoft.com/platform/studioから30日間のTryアルをダウンロードできる。 +* Mulesoft Anypoint Studio。https://www.mulesoft.com/platform/studio から30日間のTryアルをダウンロードできる。 * Teradata Vantageインスタンスへのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] @@ -26,7 +26,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] image::flow.png[サービス フロー, width=500] Mule HTTP コネクタは、次の形式の HTTP GET リクエストをリッスンします。`http://:8081/?lastname=`. -HTTP コネクタは、メッセージ プロパティの 1 つとして ``の値をデータベース コネクタに渡します。 +HTTP コネクタは、メッセージ プロパティの 1 つとして `` の値をデータベース コネクタに渡します。 データベース コネクタは、この値を抽出して以下の SQL クエリーで使用するように構成されています。 [source,sql] @@ -54,7 +54,7 @@ HTTP コネクタはリクエスト/応答として構成されているため git clone https://github.com/Teradata/mule-jdbc-example ---- -. `src/main/mule/querying-a-teradata-database.xml`を編集し、Teradata接続文字列`jdbc:teradata:///user=,password=`を検索し、Teradata接続パラメータを使用環境に合わせて置換します。 +. `src/main/mule/querying-a-teradata-database.xml` を編集し、Teradata接続文字列 `jdbc:teradata:///user=,password=` を検索し、Teradata接続パラメータを使用環境に合わせて置換します。 [NOTE] ==== @@ -104,7 +104,7 @@ ClearScape Analytics Experience 経由で Vantage インスタンスにアクセ + image:anypoint.import.projects.png[Anypointインポートプロジェクトメニュー, width=500] - ** `Anypoint Studio project from File System`を選択します: + ** `Anypoint Studio project from File System` を選択します: + image:select.import.option.png[Anypoint インポート オプション, width=500] @@ -112,7 +112,7 @@ image:select.import.option.png[Anypoint インポート オプション, width=5 == 実行する -. 「`Run`」 メニューを使用して、Anypoint Studio でサンプル アプリケーションを実行します。 +. `Run` メニューを使用して、Anypoint Studio でサンプル アプリケーションを実行します。 これでプロジェクトがビルドされ、実行されます。1分ほどかかります。 . Web ブラウザに移動し、以下のリクエストを送信します。 http://localhost:8081/?lastname=Testowsky。 + @@ -134,8 +134,8 @@ image:select.import.option.png[Anypoint インポート オプション, width=5 == さらに詳しく -* マシン上でデータベースコネクタを設定する方法の詳細については、このhttp://www.mulesoft.org/documentation/display/current/Database+Connector[ドキュメント]を参照してください。 -* データベースコネクタのプレーンhttp://www.mulesoft.org/documentation/display/current/Database+Connector+Reference[リファレンス資料]にアクセスしてください。 +* マシン上でデータベースコネクタを設定する方法の詳細については、この http://www.mulesoft.org/documentation/display/current/Database+Connector[ドキュメント] を参照してください。 +* データベースコネクタのプレーンの http://www.mulesoft.org/documentation/display/current/Database+Connector+Reference[リファレンス資料] にアクセスしてください。 * http://www.mulesoft.org/documentation/display/current/DataSense[DataSense] の詳細については、こちらをご覧ください。 include::../partials/community_link.adoc[] \ No newline at end of file diff --git a/modules/ROOT/pages/ja/general/nos.adoc b/modules/ROOT/pages/ja/general/nos.adoc index b4d311717..4a970f409 100644 --- a/modules/ROOT/pages/ja/general/nos.adoc +++ b/modules/ROOT/pages/ja/general/nos.adoc @@ -21,8 +21,8 @@ include::../partials/vantage_clearscape_analytics.adoc[] NOTE: 現在、NOS は CSV、JSON (配列または改行区切りとして)、および Parquet データ形式をサポートしています。 -データセットが CSV ファイルとして S3 バケットに保存されているとします。データセットを Vantage に取り込むかどうかを決定する前に、データセットを探索したいと考えています。このシナリオでは、 -米国地質調査所によって収集された河川流量データを含む、Teradata によって公開された公開データセットを使用します。バケットは https://td-usgs-public.s3.amazonaws.com/にあります。 +データセットが CSV ファイルとして S3 バケットに保存されているとします。データセットを Vantage に取り込むかどうかを決定する前に、データセットを探索したいと考えています。このシナリオでは、the +U.S. Geological Surveyによって収集された河川流量データを含む、Teradataによって公開された公開データセットを使用します。バケットは https://td-usgs-public.s3.amazonaws.com/ にあります。 まずはCSVデータのサンプルを見てみましょう。Vantage がバケットからフェッチする最初の 10 行を取得します。 @@ -148,7 +148,7 @@ Location GageHeight2 == NOS から Vantage にデータをロードする -オブジェクト ストレージのクエリーには時間がかかります。データが興味深いと判断し、より迅速に答えが得られるソリューションを使用してさらに分析を行いたい場合はどうすればよいでしょうか? 良いニュースは、NOS で返されたデータを `CREATE TABLE` ステートメントのソースとして使用できることです。 `CREATE TABLE` 権限があると仮定すると、次を実行できます: +オブジェクト ストレージのクエリーには時間がかかります。データが興味深いと判断し、より迅速に答えが得られるソリューションを使用してさらに分析を行いたい場合はどうすればよいでしょうか? 良いニュースは、NOS で返されたデータを `CREATE TABLE` 文のソースとして使用できることです。`CREATE TABLE` 権限があると仮定すると、次を実行できます。 IMPORTANT: このクエリは、前の手順でデータベース `河川流量` と `河川流量` という外部テーブルを作成したことを前提としています。 @@ -222,7 +222,7 @@ USING ( LOCATION('/s3/td-usgs-public.s3.amazonaws.com/CSVDATA/') ); == Vantage からオブジェクト ストレージにデータをエクスポートする -これまで、オブジェクト ストレージからのデータの読み取りとインポートについて説明してきました。SQL を使用して Vantage からオブジェクト ストレージにデータをエクスポートする方法があれば素晴らしいと思いませんか? これはまさに `WRITE_NOS` 関数の目的です。 `riverflow_native` テーブルからオブジェクト ストレージにデータをエクスポートしたいとします。次のクエリを使用してこれを行うことができます。 +ここまで、オブジェクト ストレージからのデータの読み取りとインポートについて説明してきました。SQL を使用して Vantage からオブジェクト ストレージにデータをエクスポートする方法があれば素晴らしいと思いませんか? これはまさに `WRITE_NOS` 機能のためのものです。`riverflow_native` テーブルからオブジェクト ストレージにデータをエクスポートする場合を考えてみましょう。以下のクエリーを使用してこれを行うことができます。 [source, teradata-sql] ---- @@ -239,7 +239,7 @@ SELECT * FROM WRITE_NOS ( ) AS d; ---- -ここでは、Vantage に `riverflow_native` からデータを取得し、 `parquet` 形式を使用して `YOUR-OBJECT-STORE-URI` バケットに保存するように指示します。データは `site_no` 属性でファイルに分割されます。ファイルは圧縮されます。 +ここでは、`riverflow_native` からデータを取得し、`parquet` 形式を使用して `YOUR-OBJECT-STORE-URI` バケットに保存するように Vantage に指示します。データは `site_no` 属性によってファイルに分割されます。ファイルは圧縮されます。 == まとめ diff --git a/modules/ROOT/pages/ja/general/run-vantage-express-on-aws.adoc b/modules/ROOT/pages/ja/general/run-vantage-express-on-aws.adoc index 2781479a3..8abfa5fde 100644 --- a/modules/ROOT/pages/ja/general/run-vantage-express-on-aws.adoc +++ b/modules/ROOT/pages/ja/general/run-vantage-express-on-aws.adoc @@ -19,14 +19,14 @@ include::../partials/use.csae.adoc[] ==== Vantage Express は仮想マシン イメージとして配布されます。このハウツーでは EC2 `c5n.metal` インスタンス型を使用します。これは、$3/h以上かかるベアメタル インスタンスです。 -より安価なオプションが必要な場合は、ネストされた仮想化をサポートし、安価なVMでVantage Expressを実行できるxref:vantage.express.gcp.adoc[Google Cloud]とxref:run-vantage-express-on-microsoft-azure.adoc[Azure]を試してください。 +より安価なオプションが必要な場合は、ネストされた仮想化をサポートし、安価なVMでVantage Expressを実行できるxref:vantage.express.gcp.adoc[Google Cloud] と xref:run-vantage-express-on-microsoft-azure.adoc[Azure] を試してください。 -クラウド利用に対して料金を払いたくない場合は、link:https://clearscape.teradata.com/[]でVantageの無料ホストインスタンスを入手できます。または、xref:getting.started.vmware.adoc[VMware]、xref:getting.started.vbox.adoc[VirtualBox]、またはxref:getting.started.utm.adoc[UTM]を使用してVantage Expressをローカルにインストールすることもできます。 +クラウド利用に対して料金を払いたくない場合は、link:https://clearscape.teradata.com/[] でVantageの無料ホストインスタンスを入手できます。または、xref:getting.started.vmware.adoc[VMware]、xref:getting.started.vbox.adoc[VirtualBox]、または xref:getting.started.utm.adoc[UTM] を使用してVantage Expressをローカルにインストールすることもできます。 ==== == 前提条件 -. AWS アカウント新しいアカウントを作成する必要がある場合は、https://aws.amazon.com/premiumsupport/knowledge-center/create-and-activate-aws-account/[AWS の公式手順]に従ってください。 +. AWS アカウント。新しいアカウントを作成する必要がある場合は、 https://aws.amazon.com/premiumsupport/knowledge-center/create-and-activate-aws-account/[AWS の公式手順] に従ってください。 . `awscli` コマンド ライン ユーティリティがマシンにインストールされ、設定されていること。インストール手順はここで見つけることができます。https://docs.aws.amazon.com/cli/latest/userguide/getting-started-install.html == インストール @@ -215,7 +215,7 @@ cd /opt/downloads ---- include::../partials/install.ve.in.public.cloud.adoc[] -* インターネットから Vantage Express に接続したい場合は、VM にファイアウォールの穴を開ける必要があります。また、デフォルトのパスワードを `dbc`ユーザーに変更する必要があります。 +* インターネットから Vantage Express に接続したい場合は、VM にファイアウォールの穴を開ける必要があります。また、デフォルトのパスワードを `dbc` ユーザーに変更する必要があります。 . `dbc` ユーザーのパスワードを変更するには、VM に移動して bteq を開始します。 + [source, bash, role="content-editable emits-gtm-events", id="pw_change_bteq"] @@ -243,7 +243,7 @@ aws ec2 authorize-security-group-ingress \ --ip-permissions '[{"IpProtocol": "tcp", "FromPort": 1025, "ToPort": 1025, "IpRanges": [{"CidrIp": "0.0.0.0/0", "Description": "Allow Teradata port"}]}]' ---- -== クリーンアップ +== クリーンアップする 課金を停止するには、すべてのリソースを削除します。 diff --git a/modules/ROOT/pages/ja/general/run-vantage-express-on-microsoft-azure.adoc b/modules/ROOT/pages/ja/general/run-vantage-express-on-microsoft-azure.adoc index d6636d9a8..5de05448e 100644 --- a/modules/ROOT/pages/ja/general/run-vantage-express-on-microsoft-azure.adoc +++ b/modules/ROOT/pages/ja/general/run-vantage-express-on-microsoft-azure.adoc @@ -21,7 +21,7 @@ include::../partials/use.csae.adoc[] == インストール -. デフォルトのリージョンを自分に最も近いリージョンに設定します (場所をリストするには `az account list-locations -o table`を実行します)。 +. デフォルトのリージョンを自分に最も近いリージョンに設定します (場所をリストするには `az account list-locations -o table` を実行します)。 + [source, bash] ---- @@ -115,7 +115,7 @@ az vm disk attach --vm-name teradata-vantage-express --name $DISK_ID ---- ssh -i azureuser@ ---- -. VM に接続したら、 ユーザーに切り替えます`root`。 +. VM に接続したら、`root` ユーザーに切り替えます。 + [source, bash, role="content-editable emits-gtm-events", id="sudo"] ---- @@ -139,7 +139,7 @@ export DISK_UUID=$(blkid | grep sdc1 | cut -d"\"" -f2) echo "UUID=$DISK_UUID /opt/downloads xfs defaults,nofail 1 2" >> /etc/fstab ---- include::../partials/install.ve.in.public.cloud.adoc[] -* インターネットからVantage Expressに接続したい場合は、VMに対してファイアウォールの穴を開ける必要がある。また、デフォルトのパスワードを `dbc`ユーザーに変更する必要があります。 +* インターネットからVantage Expressに接続したい場合は、VMに対してファイアウォールの穴を開ける必要がある。また、デフォルトのパスワードを `dbc` ユーザーに変更する必要があります。 . `dbc` ユーザーのパスワードを変更するには、VM に移動して bteq を開始します。 + [source, bash, role="content-editable emits-gtm-events", id="pw_change_bteq"] diff --git a/modules/ROOT/pages/ja/general/segment.adoc b/modules/ROOT/pages/ja/general/segment.adoc index 064e99031..da9198846 100644 --- a/modules/ROOT/pages/ja/general/segment.adoc +++ b/modules/ROOT/pages/ja/general/segment.adoc @@ -3,7 +3,7 @@ :experimental: :page-author: Adam Tworkiewicz :page-email: adam.tworkiewicz@teradata.com -:page-revdate: January 18th, 2022 +:page-revdate: 2022 年 1 月 18 日 :description: Twilio Segmentからのイベントを Teradata Vantage に保存します。 :keywords: data warehouses, compute storage separation, teradata, vantage, cloud data platform, object storage, business intelligence, enterprise analytics, customer data platform, cdp, segment :tabs: @@ -20,9 +20,9 @@ image::segment.flow.diagram.png[Segment Google Cloud フローダイアグラム == デプロイメント === 前提条件 -1. Google Cloudアカウント。アカウントをお持ちでない場合は、https://console.cloud.google.com/で作成できます。 -2. `gcloud`がインストールされている。https://cloud.google.com/sdk/docs/install を参照してください。 -3.Google Cloud Runが対話できるTeradata Vantageインスタンス。 +1. Google Cloudアカウント。アカウントをお持ちでない場合は、https://console.cloud.google.com/ で作成できます。 +2. `gcloud` がインストールされている。https://cloud.google.com/sdk/docs/install を参照してください。 +3. Google Cloud Runが対話できるTeradata Vantageインスタンス。 + include::../partials/vantage_clearscape_analytics.adoc[] @@ -35,8 +35,8 @@ include::../partials/vantage_clearscape_analytics.adoc[] git clone git@github.com:Teradata/segment-integration-tutorial.git ---- -2. リポジトリには、データベースを設定する `segment.sql` ファイルが含まれています。 お気に入りの SQL IDE、[Teradata Studio](https://downloads.teradata.com/download/tools/teradata-studio)、または`bteq`というコマンド ライン ツール (https://downloads.teradata.com/node/7314[Windows]、https://downloads.teradata.com/node/200442[Linux]、https://downloads.teradata.com/node/201214[macOS ]用にダウンロード) を使用して、Vantage データベース上のスクリプトを実行します。 -SQL スクリプトは、`Segment`と呼ばれる新しいデータベースと、セグメント イベントを保存するためのテーブルのセットを作成します。 +2. リポジトリには、データベースを設定する `segment.sql` ファイルが含まれています。 お気に入りの SQL IDE、Teradata Studio (https://downloads.teradata.com/download/tools/teradata-studio)、または `bteq` というコマンド ライン ツール (https://downloads.teradata.com/node/7314[Windows]、https://downloads.teradata.com/node/200442[Linux]、https://downloads.teradata.com/node/201214[macOS ]用にダウンロード) を使用して、Vantage データベース上のスクリプトを実行します。 +SQL スクリプトは、`Segment` と呼ばれる新しいデータベースと、セグメント イベントを保存するためのテーブルのセットを作成します。 3. デフォルトのプロジェクトとリージョンを設定します。 + @@ -150,7 +150,7 @@ gcloud pubsub subscriptions create segment-events-cloudrun-subscription --topic --min-retry-delay 30 ---- -15. Segmentがトピックに公開できるようにします。これを行うには、https://console.cloud.google.com/cloudpubsub/topic/listのプロジェクトの `pubsub@segment-integrations.iam.gserviceaccount.com` ロール `Pub/Sub Publisher`を割り当てます。詳細は https://segment.com/docs/connections/destinations/catalog/google-cloud-pubsub/#authentication[Segment マニュアル] を参照してください。 +15. Segmentがトピックに公開できるようにします。これを行うには、https://console.cloud.google.com/cloudpubsub/topic/list のプロジェクトの `pubsub@segment-integrations.iam.gserviceaccount.com` ロール `Pub/Sub Publisher` を割り当てます。詳細は https://segment.com/docs/connections/destinations/catalog/google-cloud-pubsub/#authentication[Segment マニュアル] を参照してください。 16. Google Cloud Pub/Sub をSegmentの宛先として構成します。完全なトピック `projects//topics/segment-events` を使用し、すべてのSegment イベント型 ( `*` 文字を使用) をトピックにマップします。 diff --git a/modules/ROOT/pages/ja/general/select-the-right-data-ingestion-tools-for-teradata-vantage.adoc b/modules/ROOT/pages/ja/general/select-the-right-data-ingestion-tools-for-teradata-vantage.adoc index 4a1adef5f..ca65650c1 100644 --- a/modules/ROOT/pages/ja/general/select-the-right-data-ingestion-tools-for-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/general/select-the-right-data-ingestion-tools-for-teradata-vantage.adoc @@ -16,8 +16,8 @@ 利用可能なソリューション: * link:https://docs.teradata.com/r/Teradata-Parallel-Transporter-Application-Programming-Interface-Programmer-Guide-17.20[Teradata Parallel Transporter API,window="_blank"] - を使用する* データをオブジェクト ストレージにストリームし、 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide-17.20/Welcome-to-Native-Object-Store[Teradata Native Object Store (NOS), window="_blank"]を使用して取り込む。 -* https://docs.teradata.com/r/Teradata-Parallel-Transporter-User-Guide/June-2022/Introduction-to-Teradata-PT[Teradata Parallel Transporter (TPT),window="_blank"]のコマンドラインユーティリティを使用する + を使用する* データをオブジェクト ストレージにストリームし、 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide-17.20/Welcome-to-Native-Object-Store[Teradata Native Object Store (NOS), window="_blank"] を使用して取り込む。 +* https://docs.teradata.com/r/Teradata-Parallel-Transporter-User-Guide/June-2022/Introduction-to-Teradata-PT[Teradata Parallel Transporter (TPT),window="_blank"] のコマンドラインユーティリティを使用する * JDBC (Java)、teradatasql (Python)、Node.js ドライバ、ODBC、.NET データ プロバイダなどの Teradata データベース ドライバを使用する。 Teradata Parallel Transport API は、通常、高スループットと最小限の待機時間を提供する最もパフォーマンスの高いソリューションです。1 秒あたり数万行を取り込む必要がある場合、および C 言語の使用に慣れている場合は、これを使用してください。 @@ -56,8 +56,8 @@ SaaS アプリからオブジェクト ストレージにエクスポートし 利用可能なソリューション: * link:https://docs.teradata.com/r/Teradata-QueryGridTM-Installation-and-User-Guide/October-2020/Teradata-QueryGrid-Overview[Teradata QueryGrid,window="_blank"] -* 他のデータベースからローカル ファイルにエクスポートし、https://docs.teradata.com/r/Teradata-Parallel-Transporter-User-Guide/June-2022/Introduction-to-Teradata-PT[Teradata Parallel Transporter (TPT),window="_blank"] -を使用して取り込む* 他のデータベースからオブジェクト ストレージにエクスポートし、 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide-17.20/Welcome-to-Native-Object-Store[Teradata Native Object Store (NOS), window="_blank" ]を使用して取り込む +* 他のデータベースからローカル ファイルにエクスポートし、 https://docs.teradata.com/r/Teradata-Parallel-Transporter-User-Guide/June-2022/Introduction-to-Teradata-PT[Teradata Parallel Transporter (TPT),window="_blank"] + を使用して取り込む* 他のデータベースからオブジェクト ストレージにエクスポートし、 link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Native-Object-Store-Getting-Started-Guide-17.20/Welcome-to-Native-Object-Store[Teradata Native Object Store (NOS), window="_blank" ] を使用して取り込む QueryGrid は、異なるシステム/プラットフォーム間で限られた量のデータを移動する場合に推奨されるオプションです。これには、Vantage インスタンス、Apache Spark、Oracle、Presto など内の移動が含まれます。これは、同期する必要があるものが SQL で表現できる複雑な条件で記述されている状況に特に適しています。 diff --git a/modules/ROOT/pages/ja/general/sto.adoc b/modules/ROOT/pages/ja/general/sto.adoc index 310940d43..ef4d27a65 100644 --- a/modules/ROOT/pages/ja/general/sto.adoc +++ b/modules/ROOT/pages/ja/general/sto.adoc @@ -70,7 +70,7 @@ Hello World は非常にエキサイティングですが、大きなファイ print("Hello World!") ---- -スクリプトが `/tmp/helloworld.py` のローカルマシンにあると仮定します。 +スクリプトが `/tmp/helloworld.py` のローカルマシンにあると仮定します。 まず、Vantage でアクセス権を設定する必要があります。クリーンな状態を保つために、新しいデータベースを使用してこれを実行します。 @@ -125,9 +125,9 @@ Hello World! これは大変な作業でしたが、まだ Hello World に到達しています。`SCRIPT` にデータを渡してみましょう。 -== Vantage に保存されているデータを SCRIPT に渡します。 +== Vantage に保存されているデータを SCRIPT に渡す -これまで、スタンドアロン スクリプトを実行するために `SCRIPT` オペレータを使用してきました。ただし、Vantage でスクリプトを実行する主な目的は、Vantage 内のデータを処理することです。Vantageからデータを取得して、`SCRIPT`に渡す方法を見てみましょう。 +これまで、スタンドアロン スクリプトを実行するために `SCRIPT` オペレータを使用してきました。ただし、Vantage でスクリプトを実行する主な目的は、Vantage 内のデータを処理することです。Vantageからデータを取得して、`SCRIPT` に渡す方法を見てみましょう。 まず、数行のテーブルを作成します。 @@ -162,7 +162,7 @@ for line in sys.stdin: print("\t".join(element)) ---- -スクリプトでは、URLが1行ずつ`stdin`に入力されると仮定していることに注記してください。また、値の間の区切り記号としてタブ文字を使用して、結果を 1 行ずつ出力する方法にも注目してください。 +スクリプトでは、URLが1行ずつ `stdin` に入力されると仮定していることに注記してください。また、値の間の区切り記号としてタブ文字を使用して、結果を 1 行ずつ出力する方法にも注目してください。 スクリプトをインストールしましょう。ここでは、スクリプト ファイルがローカル マシンの `/tmp/urlparser.py` にあると仮定します。 [source, teradata-sql] diff --git a/modules/ROOT/pages/ja/general/teradata-vantage-engine-architecture-and-concepts.adoc b/modules/ROOT/pages/ja/general/teradata-vantage-engine-architecture-and-concepts.adoc index 906416d86..cb849e4ea 100644 --- a/modules/ROOT/pages/ja/general/teradata-vantage-engine-architecture-and-concepts.adoc +++ b/modules/ROOT/pages/ja/general/teradata-vantage-engine-architecture-and-concepts.adoc @@ -86,9 +86,9 @@ Teradata Retrieval Architecture (取得アーキテクチャ)に含まれる主 1. Parsing Engineは、1 つ以上の行を取得するリクエストを送信する。 2. BYNETは、処理のために関連するAMPを活性化する。 -3。AMPは、並列アクセスを介して、目的の行を同時に見つけて検索する。 -4。BYNET は、取得した行をParsing Engineに返す。 -5.次に、Parsing Engineは、リクエスト元のクライアント アプリケーションに行を返す。 +3. AMPは、並列アクセスを介して、目的の行を同時に見つけて検索する。 +4. BYNET は、取得した行をParsing Engineに返す。 +5. 次に、Parsing Engineは、リクエスト元のクライアント アプリケーションに行を返す。 image::{dir}/teradata_retrieval_architecture.png[Teradata Retrieval Architecture (取得アーキテクチャ), width=75%] @@ -103,7 +103,7 @@ Teradata の MPP アーキテクチャでは、データを分散および取得 image::{dir}/teradata_data_distribution.png[Teradata Data Distribution (データ分散), width=75%] == まとめ -この記事では、Parsing Engines (PE)、BYNET、ccess Module Processors (AMP)、Virtual Disk (Vdisk) などの Teradata Vantage の主要なアーキテクチャ コンポーネント、および Parallel Database Extension (PDE) などのその他のアーキテクチャ コンポーネントについて説明しました。 ノードと、線形成長と拡張性、並列処理、データ取得、データ分散などの Teradata Vantage の重要な概念。 +この記事では、Parsing Engines (PE)、BYNET、Access Module Processors (AMP)、Virtual Disk (Vdisk)などのTeradata Vantageの主要なアーキテクチャ コンポーネント、Parallel Database Extension(PDE)、Nodeなどのその他のアーキテクチャ コンポーネント、および線形拡張と拡張性、並列処理、データ取得、データ分散などのTeradata Vantageの基本的な概念について説明しました。 == さらに詳しく link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Database-Introduction/Vantage-Hardware-and-Software-Architecture/Virtual-Processors/Parsing-Engine[Parsing Engine,window="_blank"] diff --git a/modules/ROOT/pages/ja/general/teradatasql.adoc b/modules/ROOT/pages/ja/general/teradatasql.adoc index 3e53ff3c8..0590134ae 100644 --- a/modules/ROOT/pages/ja/general/teradatasql.adoc +++ b/modules/ROOT/pages/ja/general/teradatasql.adoc @@ -33,7 +33,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] == クエリーを送信するコード -これは、`teradatasql`を使用してTeradata Vantageに接続するための単純なPythonコードです。残っているのは、接続パラメータと認証パラメータを渡してクエリーを実行することだけです。 +これは、`teradatasql` を使用してTeradata Vantageに接続するための単純なPythonコードです。残っているのは、接続パラメータと認証パラメータを渡してクエリーを実行することだけです。 ++++ @@ -41,7 +41,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] == まとめ -このハウツーでは、 `teradatasql` Python データベース ドライバを使用して Teradata Vantage に接続する方法を説明しました。 `teradatasql`を使用して SQL クエリーを Teradata Vantage に送信するサンプル Python コードについて説明しました。 +このハウツーでは、 `teradatasql` Python データベース ドライバを使用して Teradata Vantage に接続する方法を説明しました。 `teradatasql` を使用して SQL クエリーを Teradata Vantage に送信するサンプル Python コードについて説明しました。 == さらに詳しく * link:https://github.com/Teradata/python-driver[teradatasql Python ドライバ リファレンス,window="_blank"] diff --git a/modules/ROOT/pages/ja/general/vantage.express.gcp.adoc b/modules/ROOT/pages/ja/general/vantage.express.gcp.adoc index 723cf63a8..e5ac16e54 100644 --- a/modules/ROOT/pages/ja/general/vantage.express.gcp.adoc +++ b/modules/ROOT/pages/ja/general/vantage.express.gcp.adoc @@ -24,7 +24,7 @@ NOTE: クラウドの使用料を支払いたくない場合は、link:getting.s == インストール -. 4 つの CPU と 8 GB の RAM、70 GB のバランス ディスクを備えた Ubuntu VM を作成します。以下のコマンドは、 `us-central1` リージョンに VM を作成します。最高のパフォーマンスを得るには、 リージョンを最も近いリージョンに置き換えてください。サポートされているリージョンのリストについては、 link:https://cloud.google.com/compute/docs/regions-zones[Google Cloud リージョンのドキュメント]をご覧ください。 +. 4 つの CPU と 8 GB の RAM、70 GB のバランス ディスクを備えた Ubuntu VM を作成します。以下のコマンドは、 `us-central1` リージョンに VM を作成します。最高のパフォーマンスを得るには、 リージョンを最も近いリージョンに置き換えてください。サポートされているリージョンのリストについては、 link:https://cloud.google.com/compute/docs/regions-zones[Google Cloud リージョンのドキュメント] をご覧ください。 + [tabs] ==== @@ -89,7 +89,7 @@ mkdir /opt/downloads cd /opt/downloads ---- include::../partials/install.ve.in.public.cloud.adoc[] -* インターネットからVantage Expressに接続したい場合は、VMに対してファイアウォールの穴を開ける必要がある。また、デフォルトのパスワードを `dbc`ユーザーに変更する必要がある。 +* インターネットからVantage Expressに接続したい場合は、VMに対してファイアウォールの穴を開ける必要がある。また、デフォルトのパスワードを `dbc` ユーザーに変更する必要がある。 . `dbc` ユーザーのパスワードを変更するには、VM に移動して bteq を開始する。 + [source, bash, role="content-editable emits-gtm-events", id="pw_change_bteq"] diff --git a/modules/ROOT/pages/ja/jupyter-demos/gcp-vertex-ai-pipelines-vantage-byom-housing-example.adoc b/modules/ROOT/pages/ja/jupyter-demos/gcp-vertex-ai-pipelines-vantage-byom-housing-example.adoc index 582d608a9..3ce5b8497 100644 --- a/modules/ROOT/pages/ja/jupyter-demos/gcp-vertex-ai-pipelines-vantage-byom-housing-example.adoc +++ b/modules/ROOT/pages/ja/jupyter-demos/gcp-vertex-ai-pipelines-vantage-byom-housing-example.adoc @@ -6,4 +6,3 @@ // include::partials/vertex-pipelines-housing-example-byom.html[] - diff --git a/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-byom.adoc b/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-byom.adoc index 8f38b9917..878fc43a1 100644 --- a/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-byom.adoc +++ b/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-byom.adoc @@ -108,7 +108,7 @@ Monitoring ページで、BYOM ターゲット列を使用します。 CAST(CAST * BYOM Notebookを開き、SQL コードから PMML 予測を実行します。 -* リタイア +* リタイアする == まとめ diff --git a/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-git.adoc b/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-git.adoc index 5fe97cdfd..ec04865fb 100644 --- a/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-git.adoc +++ b/modules/ROOT/pages/ja/modelops/deploy-and-monitor-machine-learning-models-with-teradata-modelops-and-git.adoc @@ -65,7 +65,7 @@ image::modelops-git.png[ModelOps 方法論の GIT スクリーンショット, w include::partials/modelops-basic.adoc[] -== コードテンプレートの準備 +== コードテンプレートを準備する Gitモデルでは、新しいモデルを追加するときに使用可能なコードテンプレートを入力する必要があります。 diff --git a/modules/ROOT/pages/ja/modelops/using-feast-feature-store-with-teradata-vantage.adoc b/modules/ROOT/pages/ja/modelops/using-feast-feature-store-with-teradata-vantage.adoc index 00a230600..bc2a35e45 100644 --- a/modules/ROOT/pages/ja/modelops/using-feast-feature-store-with-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/modelops/using-feast-feature-store-with-teradata-vantage.adoc @@ -20,7 +20,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] == 概要 このハウツーでは、feastの用語をご存知であることを前提に説明しています。復習が必要な場合は、 https://docs.feast.dev/[FEAST ドキュメント] -をご覧ください。 + をご覧ください。 このドキュメントは、開発者が `Teradataのオフラインおよびオンライン ストア` をFeastに統合する方法を説明します。Teradataのオフラインストアにより、ユーザーは任意のデータストアをオフラインフィーチャーストアとして使用することができます。モデル学習のためにオフラインストアからフィーチャーを取得し、モデル推論時に使用するためにオンラインフィーチャーストアに実体化させることができます。 一方、オンラインストアは、低レイテンシーで機能を提供するために使用されます。 `materialize` コマンドは、データソース(またはオフラインストア)からオンラインストアに特徴量をロードするために使用されます。 @@ -30,7 +30,7 @@ include::../partials/vantage_clearscape_analytics.adoc[] * `オフラインストア` * `オンラインストア` -さらに、レジストリ(カタログ)としてTeradataを使用することは、`registry_type: sql`を介して既にサポートされており、我々のサンプルに含まれています。これは、すべてがTeradataに配置されることを意味します。しかし、要件やインストールなどによっては、他のシステムと適宜混在させることが可能です。 +さらに、レジストリ(カタログ)としてTeradataを使用することは、`registry_type: sql` を介して既にサポートされており、我々のサンプルに含まれています。これは、すべてがTeradataに配置されることを意味します。しかし、要件やインストールなどによっては、他のシステムと適宜混在させることが可能です。 == はじめに @@ -47,7 +47,7 @@ pip install feast-teradata feast-td init-repo ---- -すると、Teradataシステムの必要な情報を入力するプロンプトが表示され、サンプルデータセットがアップロードされます。上記のコマンドを実行する際に、レポ名`demo` を使用したと仮定します。リポジトリ ファイルと、 `test_workflow.py`というファイルが表示されます。この `test_workflow.py` を実行すると、Teradataをレジストリ、OfflineStore、OnlineStoreとして、饗宴のための完全なワークフローが実行されます。 +すると、Teradataシステムの必要な情報を入力するプロンプトが表示され、サンプルデータセットがアップロードされます。上記のコマンドを実行する際に、レポ名 `demo` を使用したと仮定します。リポジトリ ファイルと、 `test_workflow.py` というファイルが表示されます。この `test_workflow.py` を実行すると、Teradataをレジストリ、OfflineStore、OnlineStoreとして、饗宴のための完全なワークフローが実行されます。 [source, cli] ---- @@ -135,7 +135,7 @@ driver_stats_fv = FeatureView( オフラインストアのテストには、以下に説明するように2種類の方法があります。しかし、その前に、いくつかの必須ステップがあります。 -では、過去`60`日間にイベントを見たことのあるエンティティ(母集団)のみを使って、学習用の素性を一括して読み込んでみましょう。使用する述語(フィルタ)は、与えられた学習用データセットのエンティティ(母集団)選択に関連するものであれば何でも構いません。`event_timestamp`は例示のためだけのものです。 +では、過去 `60` 日間にイベントを見たことのあるエンティティ(母集団)のみを使って、学習用の素性を一括して読み込んでみましょう。使用する述語(フィルタ)は、与えられた学習用データセットのエンティティ(母集団)選択に関連するものであれば何でも構いません。`event_timestamp` は例示のためだけのものです。 [source, python] ---- @@ -159,7 +159,7 @@ training_df = store.get_historical_features( print(training_df.head()) ---- -`feast-teradata`ライブラリを使用すると、豊富なAPIと機能の完全なセットを使用することができます。できることの詳細については、公式のfeastのhttps://docs.feast.dev/getting-started/quickstart[クイックスタート] を参照してください。 +`feast-teradata`ライブラリを使用すると、豊富なAPIと機能の完全なセットを使用することができます。できることの詳細については、公式のfeastの https://docs.feast.dev/getting-started/quickstart[クイックスタート] を参照してください。 == オンラインストア @@ -185,7 +185,7 @@ offline_store: == オンラインストアの利用状況 オンラインストアをテストする前に、いくつか必須の手順があります。 -`materialize_incremental` コマンドは、オンラインストアの機能を徐々にマテリアライズドするために使用されます。追加する新しい特徴がない場合、このコマンドは基本的に何も行いません。祝宴`materialize_incremental`では、開始時間はnow-ttl(フィーチャビューで定義したttl)または最新の実体化の時間のいずれかです。少なくとも一度でも機能をマテリアライズしていれば、それ以降のマテリアライズは、前回のマテリアライズの時点でストアに存在しなかった機能のみをフェッチすることになります。 +`materialize_incremental` コマンドは、オンラインストアの機能を徐々にマテリアライズドするために使用されます。追加する新しい特徴がない場合、このコマンドは基本的に何も行いません。feast `materialize_incremental`では、開始時間はnow-ttl(フィーチャビューで定義したttl)または最新の実体化の時間のいずれかです。少なくとも一度でも機能をマテリアライズしていれば、それ以降のマテリアライズは、前回のマテリアライズの時点でストアに存在しなかった機能のみをフェッチすることになります。 [source, cli] ---- @@ -193,7 +193,7 @@ CURRENT_TIME=$(date +'%Y-%m-%dT%H:%M:%S') feast materialize-incremental $CURRENT_TIME ---- -次に、オンライン機能を取得する際に、`features`と`entity_rows`の2つのパラメータを用意します。 `features` パラメータはリストで、`df_feature_view`に存在する特徴を任意の数だけ取ることができます。上の例では、4つの特徴しかありませんが、4つ以下でもかまいません。次に、 `entity_rows`パラメータもリストで、`{feature_identifier_column: value_to_be_fetched}`という形式のディクショナリーを取ります。この場合、driver_id列は、エンティティドライバの異なる行を一意に識別するために使用されます。現在、driver_idが5に等しいフィーチャーの値をフェッチしています。また、このような行を複数取得することもできます。 `[{driver_id: val_1}, {driver_id: val_2}, .., {driver_id: val_n}] [{driver_id: val_1}, {driver_id: val_2}, .., {driver_id: val_n}]` +次に、オンライン機能を取得する際に、`features` と `entity_rows` の2つのパラメータを用意します。 `features` パラメータはリストで、`df_feature_view` に存在する特徴を任意の数だけ取ることができます。上の例では、4つの特徴しかありませんが、4つ以下でもかまいません。次に、 `entity_rows` パラメータもリストで、`{feature_identifier_column: value_to_be_fetched}` という形式のディクショナリーを取ります。この場合、driver_id列は、エンティティドライバの異なる行を一意に識別するために使用されます。現在、driver_idが5に等しいフィーチャーの値をフェッチしています。また、このような行を複数取得することもできます。 `[{driver_id: val_1}, {driver_id: val_2}, .., {driver_id: val_n}] [{driver_id: val_1}, {driver_id: val_2}, .., {driver_id: val_n}]` [source, python] @@ -249,7 +249,7 @@ path = 'teradatasql://'+ teradata_user +':' + teradata_password + '@'+host + '/? * on_demand_feature_views (feature_view_name, project_id, last_updated_timestamp, feature_view_proto, user_metadata) -さらに、完全な(しかし実世界ではない)、エンドツーエンドのワークフローの例を見たい場合は、`demo/test_workflow.py`スクリプトを参照してください。これは、完全な饗宴の機能をテストするために使用されます。 +さらに、完全な(しかし実世界ではない)、エンドツーエンドのワークフローの例を見たい場合は、`demo/test_workflow.py` スクリプトを参照してください。これは、完全な饗宴の機能をテストするために使用されます。 Enterprise Feature Store は、データ分析の重要な段階で価値を獲得するプロセスを加速します。生産性が向上し、製品を市場にデプロイメントするまでの時間が短縮されます。Teradataとfeastを統合することで、Teradataの高効率な並列処理をFeature Store内で利用できるようになり、パフォーマンスの向上が期待されます。 diff --git a/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-datahub.adoc b/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-datahub.adoc index 46ad0e141..86efc3ae8 100644 --- a/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-datahub.adoc +++ b/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-datahub.adoc @@ -19,8 +19,8 @@ + include::../partials/vantage_clearscape_analytics.adoc[] -* DataHubがインストールされている。link:https://datahubproject.io/docs/quickstart/[DataHubクイックスタートガイド] -を参照してください。 +* DataHubがインストールされている。 link:https://datahubproject.io/docs/quickstart/[DataHubクイックスタートガイド] + を参照してください。 == DataHubの設定 * DataHubがインストールされている環境にDataHub用のTeradataプラグインをインストールする diff --git a/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.adoc b/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.adoc index d30558653..756c88e74 100644 --- a/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.adoc +++ b/modules/ROOT/pages/ja/other-integrations/configure-a-teradata-vantage-connection-in-dbeaver.adoc @@ -21,24 +21,24 @@ include::../partials/vantage_clearscape_analytics.adoc[] == DBeaverにTeradataの接続を追加する -1. アプリケーション ウィンドウの左上隅にあるプラグ アイコン (image:other-integrations/{page-image-directory}/plug-icon.png[title="接続プラグアイコンを追加する", width="16px"]) をクリックして、新しい接続ウィザードを開始するか、 `Database -> New Database Connection`に移動します。 -2. `Select your database`画面で`teradata`と入力し、Teradataアイコンを選択します。 +1. アプリケーション ウィンドウの左上隅にあるプラグ アイコン (image:other-integrations/{page-image-directory}/plug-icon.png[title="接続プラグアイコンを追加する", width="16px"]) をクリックして、新しい接続ウィザードを開始するか、 `Database -> New Database Connection` に移動します。 +2. `Select your database` 画面で `teradata` と入力し、Teradataアイコンを選択します。 + image::other-integrations/{page-image-directory}/select-your-database.png[データベースを選択します。, width=75%] -3. メインタブでは、すべてのプライマリ接続設定を設定する必要があります。必要なものには、`Host`、`Port`、`Database`、`Username`、および`Password`があります。 +3. メインタブでは、すべてのプライマリ接続設定を設定する必要があります。必要なものには、`Host`、`Port`、`Database`、`Username`、および `Password` があります。 + -TIP: Teradata Vantageでは、ユーザが作成されると、それに対応するデータベースも作成されます。DBeaver では、データベースに接続する必要があります。接続先のデータベースがわからない場合は、`database`フィールドにユーザー名を入力します。 +TIP: Teradata Vantageでは、ユーザが作成されると、それに対応するデータベースも作成されます。DBeaver では、データベースに接続する必要があります。接続先のデータベースがわからない場合は、`database` フィールドにユーザー名を入力します。 + -TIP: DBeaver PRO を使用すると、テーブルの標準的な順序を使用できるだけでなく、テーブルを特定のデータベースまたはユーザーに階層的にリンクすることもできます。データベースまたはユーザーをデプロイしたり折りたたんだりすると、データベース ナビゲータ ウィンドウをいっぱいにすることなく、あるリージョンから別のリージョンに移動できるようになります。この設定を有効にするには、「`Show databases and users hierarchically`」ボックスをオンにします。 +TIP: DBeaver PRO を使用すると、テーブルの標準的な順序を使用できるだけでなく、テーブルを特定のデータベースまたはユーザーに階層的にリンクすることもできます。データベースまたはユーザーをデプロイしたり折りたたんだりすると、データベース ナビゲータ ウィンドウをいっぱいにすることなく、あるリージョンから別のリージョンに移動できるようになります。この設定を有効にするには、 `Show databases and users hierarchically` ボックスをオンにします。 + TIP: 多くの環境では、Teradata Vantage には TLS プロトコルを使用してのみアクセスできます。DB aver PROでは、`Use TLS protocol`オプションをチェックしてTLSを有効にする。 + image::other-integrations/{page-image-directory}/teradata-connection-settings.png[Teradata接続設定, width=75%] -4.`Finish`をクリックします。 +4. `Finish` をクリックします。 == オプション: SSHトンネリング -データベースに直接アクセスできない場合は、SSH トンネルを使用できます。すべての設定は、`SSH`タブで利用できます。DBeaver は、ユーザー/パスワード、公開キー、SSH エージェント認証の認証方法をサポートしています。 +データベースに直接アクセスできない場合は、SSH トンネルを使用できます。すべての設定は、`SSH` タブで利用できます。DBeaver は、ユーザー/パスワード、公開キー、SSH エージェント認証の認証方法をサポートしています。 image::other-integrations/{page-image-directory}/teradata-connection-settings-ssh.png[Teradata 接続設定 SSH, width=75%] diff --git a/modules/ROOT/pages/ja/other-integrations/execute-airflow-workflows-that-use-dbt-with-teradata-vantage.adoc b/modules/ROOT/pages/ja/other-integrations/execute-airflow-workflows-that-use-dbt-with-teradata-vantage.adoc index a88c2d016..2ca248333 100644 --- a/modules/ROOT/pages/ja/other-integrations/execute-airflow-workflows-that-use-dbt-with-teradata-vantage.adoc +++ b/modules/ROOT/pages/ja/other-integrations/execute-airflow-workflows-that-use-dbt-with-teradata-vantage.adoc @@ -20,8 +20,9 @@ TIP: このチュートリアルは、このドキュメントで紹介したマシン(AWS上のt2.2xlarge EC2、ストレージは約100GB)と同等の計算能力とストレージを持ち、インターネットに接続されていれば、他の計算プラットフォームやベアメタルマシンでも調整することが可能です。もし、別の計算機プラットフォームを使用する場合は、チュートリアルのいくつかのステップを変更する必要があります。 2. SSHクライアントが必要です。 + -TIP: MacやLinuxマシンであれば、これらのツールはすでに含まれています。Windowsであれば、link:https://www.putty.org/[PuTTY] または link:https://mobaxterm.mobatek.net/download.html[MobaXterm]を検討してください。 -3.Teradata Vantageインスタンスにアクセスする必要があります。Teradata Vantage をご利用でない場合は、開発者向けの無償版であるlink:https://quickstarts.teradata.com/#getting-access-to-vantage[Vantage Express] を探索してください。 +TIP: MacやLinuxマシンであれば、これらのツールはすでに含まれています。Windowsであれば、link:https://www.putty.org/[PuTTY] または link:https://mobaxterm.mobatek.net/download.html[MobaXterm] を検討してください。 +3. Teradata Vantageインスタンスにアクセスする必要があります。Teradata Vantage をご利用でない場合は、開発者向けの無償版である link:https://quickstarts.teradata.com/#getting-access-to-vantage[Vantage Express] を探索してください。 + == Airflow をインストールして実行する @@ -61,7 +62,7 @@ mkdir -p ./dags ./logs ./plugins ./data ./config ./data echo -e "AIRFLOW_UID=$(id -u)" > .env ---- -2. お好みのファイル転送ツール (`scp`、 `PuTTY`、 `MobaXterm`など) を使用して、 link:{attachmentsdir}/{dir}/airflow.cfg[airflow.cfg] ファイルを `airflow/config` ディレクトリにアップロードします。 +2. お好みのファイル転送ツール ( `scp`、 `PuTTY`、 `MobaXterm` など) を使用して、 link:{attachmentsdir}/{dir}/airflow.cfg[airflow.cfg] ファイルを `airflow/config` ディレクトリにアップロードします。 === Dockerのインストール @@ -130,14 +131,14 @@ sudo docker ps [TIP] .「docker-compose.yaml」と「Dockerfile」の機能 ==== -`docker-compose.yaml` および `Dockerfile` は、インストール時に環境を構築するために必要なファイルです。 `docker-compose.yaml`ファイルは、Airflowのdockerコンテナをダウンロードし、インストールするものです。このコンテナには、Web UI、メタデータ用のPostgresデータベース、スケジューラ、3つのワーカー(3つのタスクを並行して実行可能)、トリガー、 `dbt`が生成するドキュメントを表示するためのnginx Webサーバーが含まれています。このほか、コンテナへのホストディレクトリのマウントや、各種インストール処理も行われます。`Dockerfile` は、各コンテナに必要なパッケージを追加でインストールします。 +`docker-compose.yaml` および `Dockerfile` は、インストール時に環境を構築するために必要なファイルです。 `docker-compose.yaml` ファイルは、Airflowのdockerコンテナをダウンロードし、インストールするものです。このコンテナには、Web UI、メタデータ用のPostgresデータベース、スケジューラ、3つのワーカー(3つのタスクを並行して実行可能)、トリガー、 `dbt` が生成するドキュメントを表示するためのnginx Webサーバーが含まれています。このほか、コンテナへのホストディレクトリのマウントや、各種インストール処理も行われます。`Dockerfile` は、各コンテナに必要なパッケージを追加でインストールします。 `docker-compose.yaml` と `Dockerfile` が何をするファイルなのか、もっと詳しく知りたい方はこれらのファイルをご覧ください。何がなぜインストールされるのかを明確にするためのコメントもあります。 ==== 2. docker-composeをインストールします(yamlファイルを実行するために必要)。 + -NOTE: この手順は、バージョン 1.29.2 に基づいています。最新のリリースは https://github.com/docker/compose/releases で確認し、必要に応じて以下のコマンドを更新してください。 +NOTE: この手順は、バージョン 1.29.2 に基づいています。最新のリリースは https://github.com/docker/compose/releases で確認し、必要に応じて以下のコマンドを更新してください。 + [source, bash, id="install_docker_compose", role="content-editable emits-gtm-events"] ---- @@ -153,7 +154,7 @@ sudo ln -s /usr/local/bin/docker-compose /usr/bin/docker-compose docker-compose --version ---- -=== テスト の dbt プロジェクトをインストールする +=== テスト dbt プロジェクトのインストール NOTE: これらの手順では、サンプル dbt プロジェクトをセットアップします。 `dbt` ツール自体は、後で `docker-compose`によってコンテナにインストールされます。 @@ -204,7 +205,7 @@ mkdir .dbt === DockerでAirflow環境を作成する -1. `Dockerfile` と `docker-compose.yaml` がある`airflow`ディレクトリで、Docker環境作成スクリプトを実行します。 +1. `Dockerfile` と `docker-compose.yaml` がある `airflow` ディレクトリで、Docker環境作成スクリプトを実行します。 + [source, bash, id="run_docker_compose", role="content-editable emits-gtm-events"] ---- @@ -281,8 +282,9 @@ sudo docker-compose down --volumes --rmi all * `Admin -> Variables` メニューアイテムをクリックし、Variables ページに移動します。 + image::other-integrations/{dir}/admin-dropdown.png[Airflow管理ドロップダウン, width=75%] -* `Choose File`をクリックし、ファイル エクスプローラで `variable.json` を選択して `Import Variables` -をクリックします。+ +* `Choose File` をクリックし、ファイル エクスプローラで `variable.json` を選択して `Import Variables` + をクリックします。 ++ image::other-integrations/{dir}/import-variables.png[Airflow管理ドロップダウン, width=75%] * お使いの環境に合わせて、変数を編集します。 diff --git a/modules/ROOT/pages/ja/other-integrations/getting.started.dbt-feast-teradata-pipeline.adoc b/modules/ROOT/pages/ja/other-integrations/getting.started.dbt-feast-teradata-pipeline.adoc index bd989a66b..1d5c8c682 100644 --- a/modules/ROOT/pages/ja/other-integrations/getting.started.dbt-feast-teradata-pipeline.adoc +++ b/modules/ROOT/pages/ja/other-integrations/getting.started.dbt-feast-teradata-pipeline.adoc @@ -10,7 +10,7 @@ == 概要 -このチュートリアルでは、生データを取得して FEAST フィーチャに変換する dbt パイプラインを作成するアプローチを示します。パイプラインは、データ変換に 「link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Analytics-Database-Analytic-Functions-17.20[ClearScape分析関数]」を活用します。変換の出力は FEAST にロードされ、ML モデルで使用できるフィーチャがマテリアライズドされます。 +このチュートリアルでは、生データを取得して FEAST フィーチャに変換する dbt パイプラインを作成するアプローチを示します。パイプラインは、データ変換に link:https://docs.teradata.com/r/Enterprise_IntelliFlex_VMware/Teradata-VantageTM-Analytics-Database-Analytic-Functions-17.20[ClearScape分析関数] を活用します。変換の出力は FEAST にロードされ、ML モデルで使用できるフィーチャがマテリアライズドされます。 == はじめに === dbt @@ -24,8 +24,8 @@ link:https://docs.feast.dev/[Feast] (Feature Store) は、既存のテクノロ * Teradata Vantageインスタンスへのアクセス。 include::../partials/vantage_clearscape_analytics.adoc[] -* Feast-Teradata がローカルにインストールされている。 link:https://quickstarts.teradata.com/modelops/using-feast-feature-store-with-teradata-vantage.html#_overview[Feast-Teradata のインストール手順] -を参照してください。 +* Feast-Teradata がローカルにインストールされている。 link:https://quickstarts.teradata.com/modelops/using-feast-feature-store-with-teradata-vantage.html#_overview[Feast-Teradata のインストール手順] + を参照してください。 * dbt はローカルにインストールされている。 link:https://quickstarts.teradata.com/dbt.html[dbtのインストール手順] を参照してください。 == 目的 @@ -166,13 +166,13 @@ dbt はこの生データを取得し、ML モデリングおよび分析ツー .... -== dbtの構成 -以下の内容のファイル `$HOME/.dbt/profiles.yml` を作成します。Teradata インスタンスに一致するように``、`` 、`` を調整します。 +== dbtを構成する +以下の内容のファイル `$HOME/.dbt/profiles.yml` を作成します。Teradata インスタンスに一致するように ``、`` 、`` を調整します。 [NOTE] -.データベースの設定 +.データベースを設定する ==== -以下の dbt プロファイルは、 `teddy_bank`というデータベースを指します。Teradata Vantage インスタンス内の既存のデータベースを指すように `schema` 値を変更できます。 +以下の dbt プロファイルは、 `teddy_bank` というデータベースを指します。Teradata Vantage インスタンス内の既存のデータベースを指すように `schema` 値を変更できます。 ==== [source, yaml, id="dbt_first_config", role="emits-gtm-events"] @@ -234,7 +234,7 @@ path = 'teradatasql://'+ teradata_user +':' + teradata_password + '@'+host + '/? teradata_database + '&LOGMECH=' + teradata_log_mech ---- == dbtを実行する -このステップでは、`customers`、`accounts`、`transactions`のデータテーブルを入力します。 +このステップでは、`customers`、`accounts`、`transactions` のデータテーブルを入力します。 [source, bash] ---- @@ -312,4 +312,5 @@ def get_Training_Data(): * link:https://github.com/Teradata/dbt-teradata[dbt-teradata プラグインのドキュメント] * link:https://docs.feast.dev/tutorials/using-scalable-registry[Feast ののスケーラブルなレジストリScalable Registry] * link:https://medium.com/teradata/enabling-highly-scalable-feature-store-with-teradata-vantage-and-feast-e01008fa8fdb[Teradata Vantage と FEAST でスケーラブルなフィーチャストアを実現] -* このプロジェクトのlink:https://github.com/Teradata/tdata-pipeline[Gitリポジトリ]。 +* このプロジェクトの link:https://github.com/Teradata/tdata-pipeline[Gitリポジトリ] 。 + diff --git a/modules/ROOT/pages/ja/other-integrations/integrate-teradata-vantage-with-knime.adoc b/modules/ROOT/pages/ja/other-integrations/integrate-teradata-vantage-with-knime.adoc index b12635309..0de8ab99e 100644 --- a/modules/ROOT/pages/ja/other-integrations/integrate-teradata-vantage-with-knime.adoc +++ b/modules/ROOT/pages/ja/other-integrations/integrate-teradata-vantage-with-knime.adoc @@ -23,19 +23,19 @@ KNIME分析プラットフォームは、データサイエンスのワークベ * Teradata Vantage インスタンス、バージョン 17.10 以降へのアクセス。 + include::../partials/vantage_clearscape_analytics.adoc[] -* KNIME がローカルにインストールされている。詳細については 、link:https://www.knime.com/installation[KNIME のインストール手順]を 参照してください。 +* KNIME がローカルにインストールされている。詳細については 、 link:https://www.knime.com/installation[KNIME のインストール手順] を 参照してください。 == 統合手順 -1. https://downloads.teradata.com/download/connectivity/jdbc-driver(初めての方は登録が必要です) にアクセスし、最新版のJDBCドライバをダウンロードします。 +1. https://downloads.teradata.com/download/connectivity/jdbc-driver (初めての方は登録が必要です) にアクセスし、最新版のJDBCドライバをダウンロードします。 2. ダウンロードしたファイルを解凍します。 `terajdbc4.jar` ファイルがあります。 -3. KNIME で、 `File → Preference`をクリックします。 `Databases` の `Add` をクリックします。 +3. KNIME で、 `File → Preference` をクリックします。 `Databases` の `Add` をクリックします。 + image::other-integrations/{page-image-directory}/add-jar.png[jarを追加, width=75%] 4. データベースドライバを新規に登録します。 `ID`、 `Name` 、 `Description` に以下のような値を指定します。`Add file`をクリックし、前にダウンロードした.jarファイルをポイントします。 `Find driver classes` をクリックすると、`Driver class:` に `jdbc.TeraDriver` が入力されます。 + image::other-integrations/{page-image-directory}/register-driver.png[ドライバを登録する, width=75%] -5. `Apply and Close`をクリックします。 +5. `Apply and Close` をクリックします。 + image::other-integrations/{page-image-directory}/apply-and-close.png[Apply and Close, width=75%] 6. 接続をテストするために、新しいKNIMEワークフローを作成し、右側のワークスペースにドラッグして `Database Reader (legacy)` ノードを追加してください。 diff --git a/modules/ROOT/pages/ja/query-service/send-queries-using-rest-api.adoc b/modules/ROOT/pages/ja/query-service/send-queries-using-rest-api.adoc index 7a49f0f10..c29126056 100644 --- a/modules/ROOT/pages/ja/query-service/send-queries-using-rest-api.adoc +++ b/modules/ROOT/pages/ja/query-service/send-queries-using-rest-api.adoc @@ -17,7 +17,7 @@ Teradata Query Service は、Vantage 用の REST API で、これを使用する 始める前に、以下のものが揃っていることを確認してください。 -* Query Service がプロビジョニングされている VantageCloud システム、または Query Service が有効な接続を備えた VantageCore へのアクセス。管理者で、Query Service をインストールする必要がある場合は、link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022[Query Service のインストール、構成、および使用ガイド]を参照してください。 +* Query Service がプロビジョニングされている VantageCloud システム、または Query Service が有効な接続を備えた VantageCore へのアクセス。管理者で、Query Service をインストールする必要がある場合は、 link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022[Query Service のインストール、構成、および使用ガイド] を参照してください。 + include::ROOT:partial$vantage_clearscape_analytics.adoc[] * Query Service のホスト名とシステム名 @@ -297,7 +297,7 @@ Y5WYUUXj ,0.0,0.009313225746154785,0.0,0.009313225746154785 トランザクションが複数のリクエストにまたがる必要がある場合や、揮発性のテーブルを使用する場合は、明示的なセッションを使用します。これらのセッションは、クエリーリクエストでセッションを参照する場合にのみ再利用されます。リクエストがすでに使用されている明示的セッションを参照する場合、リクエストはキューに入れられます。 -1. セッションを作成します +1. セッションを作成します。 + POST リクエストを `/system//sessions` エンドポイントに送信します。リクエストは新しいデータベース セッションを作成し、セッションの詳細を応答として返します。 + @@ -343,7 +343,7 @@ print(response.text) + 以下の例では、リクエストには以下のものが含まれます。 + -* `SELECT * FROM DBC.DBCInfo`: エイリアス ``を持つシステムへのクエリー。 +* `SELECT * FROM DBC.DBCInfo`: エイリアス `` を持つシステムへのクエリー。 * `'format': 'OBJECT'`:応答の形式。 * `'Session' : `:明示的なセッションを作成するためにステップ1で返されたセッションID。 @@ -454,7 +454,7 @@ print(response.text) + GET リクエストを `/system//queries/` エンドポイントに送信し、 `` をステップ 1 で取得した ID に置き換えます。 + -リクエストは、 `*queryState*`、 `*queueOrder*`、 `*queueDuration*`などを含む特定のクエリーの詳細を返します。応答フィールドの完全なリストとその説明については、link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022/Using-the-Query-Service-APIs/Submitting-SQL-Statement/Request-Body[「Query Service のインストール、構成、および使用ガイド」]を参照してください。 +リクエストは、 `*queryState*`、 `*queueOrder*`、 `*queueDuration*` などを含む特定のクエリーの詳細を返します。応答フィールドの完全なリストとその説明については、link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022/Using-the-Query-Service-APIs/Submitting-SQL-Statement/Request-Body[「Query Service のインストール、構成、および使用ガイド」]を参照してください。 + リクエスト + @@ -608,7 +608,7 @@ print(response.json()) == リソース -* 機能、例、および参考資料:link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022[クエリサービスのインストール、設定、および使用ガイド] +* 機能、例、および参考資料: link:https://docs.teradata.com/r/Teradata-Query-Service-Installation-Configuration-and-Usage-Guide-for-Customers/April-2022[クエリサービスのインストール、設定、および使用ガイド] * link:https://downloads.teradata.com/api/teradata_query_service[Query Service API OpenAPI 仕様] -include::ROOT:partial$community_link.adoc[] \ No newline at end of file +include::../partials/community_link.adoc[] \ No newline at end of file diff --git a/modules/ROOT/pages/ja/tools-and-utilities/run-bulkloads-efficiently-with-teradata-parallel-transporter.adoc b/modules/ROOT/pages/ja/tools-and-utilities/run-bulkloads-efficiently-with-teradata-parallel-transporter.adoc index d736a7cdf..4bb6ec0ef 100644 --- a/modules/ROOT/pages/ja/tools-and-utilities/run-bulkloads-efficiently-with-teradata-parallel-transporter.adoc +++ b/modules/ROOT/pages/ja/tools-and-utilities/run-bulkloads-efficiently-with-teradata-parallel-transporter.adoc @@ -16,10 +16,10 @@ Vantageに大量のデータを移動させるニーズはよくあります。T * Teradata Vantageインスタンスへのアクセス。 + -include::ROOT:partial$vantage_clearscape_analytics.adoc[] +include::../partials/vantage_clearscape_analytics.adoc[] * Teradata Tools and Utilities (TTU) をダウンロード - サポートされているプラットフォーム: link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-windows-installation-package[Windows]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-mac-osx-installation-package[MacOS]、 link:https://downloads.teradata.com/download/tools/teradata-tools-and-utilities-linux-installation-package-0[Linux] (登録が必要です)。 -== TTUをインストールする +== TTUのインストール [tabs] ==== @@ -44,9 +44,9 @@ Linux:: -- ==== -== サンプルデータの入手 +== サンプルデータを入手する -非営利団体の米国税務申告を扱います。非営利の納税申告は公開データです。アメリカ内国歳入庁は、これらを S3 バケットで公開します。2020 年の提出書類の概要を見てみましょう。 `https://storage.googleapis.com/clearscape_analytics_demo_data/TPT/index_2020.csv` ブラウザ、`wget`、または`curl`を使用して、ファイルをローカルに保存できます。 +非営利団体の米国税務申告を扱います。非営利の納税申告は公開データです。アメリカ内国歳入庁は、これらを S3 バケットで公開します。2020 年の提出書類の概要を見てみましょう。 `https://storage.googleapis.com/clearscape_analytics_demo_data/TPT/index_2020.csv` ブラウザ、`wget`、または `curl` を使用して、ファイルをローカルに保存できます。 == データベースを作成する @@ -61,13 +61,13 @@ AS PERMANENT = 120e6, -- 120MB == TPT を実行する -これから `TPT` を実行します。`TPT` は、Teradata Vantageでデータのロード、抽出、更新に使用できるコマンドラインツールです。これらのさまざまな機能は、いわゆる`オペレータ`で実装されます。例えば、Vantage へのデータのロードは `Load` オペレータによって処理されます。 `Load` オペレータは、大量のデータを Vantage にアップロードする場合に非常に効率的です。 `Load` オペレータには、高速化するためにいくつかの制限があります。空のテーブルのみを設定できます。すでにデータが設定されているテーブルへの挿入はサポートされていません。セカンダリ インデックスを持つテーブルはサポートされていません。また、テーブルが `MULTISET` テーブルであっても、重複レコードは挿入されません。制限の完全なリストについては link:https://docs.teradata.com/r/Teradata-Parallel-Transporter-Reference/February-2022/Load-Operator/Usage-Notes/Normalized-Tables/Restrictions-and-Limitations[、「Teradata® TPT リファレンス - ロード オペレータ - 制限と制約」]を参照してください。 +これから `TPT` を実行します。`TPT` は、Teradata Vantageでデータのロード、抽出、更新に使用できるコマンドラインツールです。これらのさまざまな機能は、いわゆる `オペレータ` で実装されます。 例えば、Vantage へのデータのロードは `Load` オペレータによって処理されます。 `Load` オペレータは、大量のデータを Vantage にアップロードする場合に非常に効率的です。 `Load` オペレータには、高速化するためにいくつかの制限があります。空のテーブルのみを設定できます。すでにデータが設定されているテーブルへの挿入はサポートされていません。セカンダリ インデックスを持つテーブルはサポートされていません。また、テーブルが `MULTISET` テーブルであっても、重複レコードは挿入されません。制限の完全なリストについては 、 link:https://docs.teradata.com/r/Teradata-Parallel-Transporter-Reference/February-2022/Load-Operator/Usage-Notes/Normalized-Tables/Restrictions-and-Limitations[Teradata® TPT リファレンス - ロード オペレータ - 制限と制約] を参照してください。 TPT には独自のスクリプト言語があります。この言語を使用すると、任意の SQLコマンドを使用してデータベースを準備し、入力ソースを宣言し、Vantage にデータを挿入する方法を定義できます。 CSV データを Vantage にロードするには、ジョブを定義して実行します。ジョブはデータベースを準備します。古いログテーブルとエラーテーブルが削除され、ターゲット テーブルが作成されます。次に、ファイルを読み込み、データをデータベースに挿入するします。 -. TPTにVantageデータベースへの接続方法を指示するジョブ変数ファイルを作成します。ファイル `jobvars.txt` を作成し、以下の内容を挿入します。`host`をデータベースのホスト ネームで置き換えます。例えば、ローカルの Vantage Express インスタンスを使用している場合は、 `127.0.0.1`を使用します。 `username` はデータベース ユーザー名、 `password` はデータベース パスワードです。準備ステップ (DDL) とロード ステップにはそれぞれ独自の構成値があり、DDLとロード ステップの両方を構成するには構成値を2回入力する必要があることに注記してください。 +. TPTにVantageデータベースへの接続方法を指示するジョブ変数ファイルを作成します。ファイル `jobvars.txt` を作成し、以下の内容を挿入します。`host` をデータベースのホスト ネームで置き換えます。例えば、ローカルの Vantage Express インスタンスを使用している場合は、 `127.0.0.1` を使用します。 `username` はデータベース ユーザー名、 `password` はデータベース パスワードです。準備ステップ (DDL) とロード ステップにはそれぞれ独自の構成値があり、DDLとロード ステップの両方を構成するには構成値を2回入力する必要があることに注記してください。 + [source, bash, id="tpt_first_config", role="emits-gtm-events"] ---- @@ -90,7 +90,7 @@ LoadErrorTable2 = 'irs.irs_returns_uv' LoadTargetTable = 'irs.irs_returns' ---- -. 以下の内容のファイルを作成し、 `load.txt`として保存します。ジョブファイルの構造を理解するには、ジョブファイル内のコメントを参照してください。 +. 以下の内容のファイルを作成し、 `load.txt` として保存します。ジョブファイルの構造を理解するには、ジョブファイル内のコメントを参照してください。 + [source, bash] ---- @@ -264,11 +264,11 @@ NOS ソリューションは追加のツールに依存しないため便利で == まとめ -このハウツーでは、大量のデータを Vantage に取り込む方法を説明しました。`TPT`を使用して、数十万件のレコードを数秒でVantageにロードしました。 +このハウツーでは、大量のデータを Vantage に取り込む方法を説明しました。`TPT` を使用して、数十万件のレコードを数秒でVantageにロードしました。 == さらに詳しく * link:https://docs.teradata.com/r/Teradata-Parallel-Transporter-User-Guide/February-2022[Teradata®TPTユーザー ガイド] * link:https://docs.teradata.com/r/Teradata-Parallel-Transporter-Reference/February-2022[Teradata® TPT リファレンス] -* xref:ROOT:nos.adoc[] +* link:../general/nos.html[オブジェクトストレージに保存されたクエリーデータ] -include::ROOT:partial$community_link.adoc[] +include::../partials/community_link.adoc[] diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/partials/vantagecloud-lake-request.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/partials/vantagecloud-lake-request.adoc index 10c270cbc..1e2d0866a 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/partials/vantagecloud-lake-request.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/partials/vantagecloud-lake-request.adoc @@ -1 +1 @@ -TIP: VantageCloud Lake 環境をリクエストするには、このhttps://www.teradata.com/about-us/contact[リンク]にあるフォームを参照してください。すでに VantageCloud Lake 環境をお持ちで、構成に関するガイダンスが必要な場合は、こちらのhttps://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[ガイド]を参照してください。 \ No newline at end of file +TIP: VantageCloud Lake 環境をリクエストするには、この https://www.teradata.com/about-us/contact[リンク] にあるフォームを参照してください。すでに VantageCloud Lake 環境をお持ちで、構成に関するガイダンスが必要な場合は、こちらの https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[ガイド] を参照してください。 \ No newline at end of file diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-azure.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-azure.adoc index b211af264..a228123b5 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-azure.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-azure.adoc @@ -10,7 +10,7 @@ :auxdir: vantagecloud-lake-demo-jupyter-sagemaker == 概要 -このクイックスタートでは、https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos for VantageCloud Lake]をMicrosoft Azure上で実行するためのプロセスについて詳しく説明します。 +このクイックスタートでは、 https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos for VantageCloud Lake] をMicrosoft Azure上で実行するためのプロセスについて詳しく説明します。 == 前提条件 * Microsoft Azureアカウントへのアクセス @@ -153,7 +153,8 @@ image::vantagecloud-lake/{dir}/sagemaker-lake.PNG[JupyterLabを開始する,alig == VantageCloud Lake の Jupyter Notebook デモ === 構成 -* https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json]は、VantageCloud Lake 環境の構成に一致するように編集する必要がある + +* https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json] は、VantageCloud Lake 環境の構成に一致するように編集する必要がある ++ image::vantagecloud-lake/{auxdir}/sagemaker-vars.PNG[JupyterLabを開始する,align="center" width=75%] @@ -179,9 +180,10 @@ image::vantagecloud-lake/{auxdir}/sagemaker-vars.PNG[JupyterLabを開始する,a IMPORTANT: vars.json ファイル内のすべてのパスワードを忘れずに変更してください。 == デモを実行する -*0_Demo_Environment_Setup.ipynb*のすべてのセルを開いて実行し、環境変数を設定する続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 +*0_Demo_Environment_Setup.ipynb* のすべてのセルを開いて実行し、環境変数を設定する続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 + +デモノートブックの詳細については、GitHubの https://github.com/Teradata/lake-demos[Teradata Lake demos] ページを参照してください。 -デモノートブックの詳細については、GitHubのhttps://github.com/Teradata/lake-demos[Teradata Lake demos]ページを参照してください。 == まとめ diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.adoc index 2497035a4..0f9bf18f8 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.adoc @@ -12,16 +12,16 @@ このハウツーでは、Teradata VantageCloud Lake に接続し、Docker の Jupyter ノートブックからデモを実行する手順を説明します。 == 前提条件 -* インストールされたhttps://www.docker.com/products/docker-desktop/[Docker Desktop] -* インストールされたhttps://git-scm.com/book/en/v2/Getting-Started-Installing-Git[Git] +* インストールされた https://www.docker.com/products/docker-desktop/[Docker Desktop] +* インストールされた https://git-scm.com/book/en/v2/Getting-Started-Installing-Git[Git] ** git repoをダウンロードする必要がある https://github.com/Teradata/lake-demos.git * Teradata VantageCloud Lakeアカウント ログイン ** Teradata のウェルカム レターにある組織の URL とログインの詳細 * 選択したIDE == VantageCloud Lake 環境を作成する -Vhttps://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[antageCloud Lake の開始手順]に従って、独自の環境を作成します。 + -作成したら、[*SETTINGS*] タブに移動し、https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html#_access_environment_from_public_internet[環境にアクセスするため]のパブリック IP アドレスを指定します。 +https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[VantageCloud Lake をはじめる] に従って、独自の環境を作成します。 + +作成したら、[*SETTINGS*] タブに移動し、https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html#_access_environment_from_public_internet[環境にアクセスする] ためのパブリック IP アドレスを指定します。 NOTE: IP アドレスは https://www.whatismyip.com/[WhatIsMyIp.com] のWeb サイトから確認できます。IPv4アドレスに注記してください。 @@ -31,9 +31,9 @@ image::vantagecloud-lake/{dir}/lake_ip_addresses.png[IPホワイトリスト,ali image::vantagecloud-lake/{dir}/lake_public_internet_cv.png[Public internetカードの表示,align="center",width=50%] -*OVERVIEW*タブから、 -をコピーする。 -* Public IP および +*OVERVIEW* タブから、 + をコピーする。 +* Public IP および * Open Analytics Endpoint これらの値は、DockerからVantageCloud Lakeにアクセスするために必要です。 @@ -60,7 +60,7 @@ cd lake-demos * https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.jsonファイル] == vars.json ファイルを編集する -Jupyter NotebookをVantageCloud Lakeに接続するには、https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.jsonファイル]を編集して、次の情報を提供する必要があります。 +Jupyter NotebookをVantageCloud Lakeに接続するには、 https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.jsonファイル] を編集して、次の情報を提供する必要があります。 [cols="1,1"] |==== @@ -70,7 +70,7 @@ Jupyter NotebookをVantageCloud Lakeに接続するには、https://github.com/T | *OVERVIEW*セクションの Public IP 値(上記を参照) | *"UES_URI"* -| *OVERVIEW*セクションからのOpen Analytics Endpoint 値(上記を参照) +| *OVERVIEW* セクションからのOpen Analytics Endpoint 値(上記を参照) | *dbc"* | VantageCloud Lake環境のマスターパスワード @@ -80,7 +80,7 @@ Jupyter NotebookをVantageCloud Lakeに接続するには、https://github.com/T IMPORTANT: サンプル vars.json では、すべてのユーザーのパスワードはデフォルトで「password」に設定されていますが、これは説明を目的としたものです。これらのパスワード フィールドをすべて強力なパスワードに変更し、必要に応じて保護し、他のパスワード管理のベスト プラクティスに従う必要があります。 == Docker 内でファイルをマウントする -VantageCloud Lake デモを実行するには、https://hub.docker.com/r/teradata/jupyterlab-extensions[Teradata Jupyter Extensions for Docker]が必要です。この拡張機能は、SQL ipython カーネル、Teradata への接続を管理するユーティリティ、および Teradata データベースとの対話時の生産性を高めるデータベース オブジェクト エクスプローラを提供します。 +VantageCloud Lake デモを実行するには、https://hub.docker.com/r/teradata/jupyterlab-extensions[Teradata Jupyter Extensions for Docker] が必要です。 この拡張機能は、SQL ipython カーネル、Teradata への接続を管理するユーティリティ、および Teradata データベースとの対話時の生産性を高めるデータベース オブジェクト エクスプローラを提供します。 IMPORTANT: デモ リポジトリのクローンを作成したのと同じフォルダー内ですべてのコマンドを実行していることを確認してください。 @@ -117,11 +117,12 @@ dockerログのURLをクリックして、ブラウザでJupyter Notebookを開 image::vantagecloud-lake/{dir}/lake_jupyter_notebook.png[Jupyter Notebook,align="center"] == デモを実行する -*0_Demo_Environment_Setup.ipynb*内のすべてのセルを開いて実行して環境をセットアップし、続いて*1_Demo_Setup_Base_Data.ipynb*を実行してデモに必要な基本データをロードします。 + +*0_Demo_Environment_Setup.ipynb* 内のすべてのセルを開いて実行して環境をセットアップし、続いて *1_Demo_Setup_Base_Data.ipynb* を実行してデモに必要な基本データをロードします。 ++ image::vantagecloud-lake/{dir}/lake_0_setup.png[環境構築Jupyter Notebook,align="center"] -デモ用のNotebookの詳細については、GGitHubのhttps://github.com/Teradata/lake-demos[Teradata Lake demos]ページを参照してください。 +デモ用のNotebookの詳細については、GGitHubの https://github.com/Teradata/lake-demos[Teradata Lake demos] ページを参照してください。 == まとめ diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-google-cloud-vertex-ai.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-google-cloud-vertex-ai.adoc index 6a6c7ed33..3c5f02d78 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-google-cloud-vertex-ai.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-google-cloud-vertex-ai.adoc @@ -9,10 +9,10 @@ :dir: vantage-lake-demo-jupyter-google-cloud-vertex-ai == 概要 -このクイックスタートでは、Google Cloud の AI/ML プラットフォームである Vertex AI で https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos for VantageCloud Lake]を実行する方法について説明します。 +このクイックスタートでは、Google Cloud の AI/ML プラットフォームである Vertex AI で https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos for VantageCloud Lake] を実行する方法について説明します。 == 前提条件 -* Teradata modules for Jupyter **Linuxデスクトップ版**(ダウンロードはhttps://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[こちら]、登録が必要です) +* Teradata modules for Jupyter **Linuxデスクトップ版**(ダウンロードは https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[こちら] 、登録が必要です) * https://console.cloud.google.com/flows/enableapi?apiid=notebooks.googleapis.com,aiplatform.googleapis.com&redirect=https://console.cloud.google.com&_ga=2.180323111.284679914.1706204112-1996764819.1705688373[Vertex AI と Notebooks API] が有効になっている Google Cloud アカウント * 起動スクリプトと Teradata Jupyter 拡張パッケージを保存するための Google クラウド ストレージ * https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[VantageCloud Lake環境へのアクセス] @@ -23,7 +23,7 @@ * Teradata Jupyter拡張パッケージをダウンロードする - https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[Vantage Modules for Jupyterページ] -にアクセスする- サインインして、Teradata Linuxバージョンのパッケージをダウンロードする。 + にアクセスする- サインインして、Teradata Linuxバージョンのパッケージをダウンロードする。 * Google Cloud Storage Bucketを作成する - プロジェクトに関連した名前でバケットを作成する(例: teradata_jupyter)でバケットを作成する。 @@ -33,7 +33,7 @@ image::vantagecloud-lake/{dir}/bucket.png[新しいバケット,align="center" w * 解凍された Jupyter 拡張機能パッケージを Google Cloud Storage バケットにファイルとしてアップロードする。 -* 次の起動スクリプトを作成し、`startup.sh`としてローカルマシンに保存する。 +* 次の起動スクリプトを作成し、`startup.sh` としてローカルマシンに保存する。 以下は、Google Cloud Storage バケットから Teradata Jupyter 拡張機能パッケージを取得し、Teradata SQL カーネル、拡張機能をインストールし、lake-demos リポジトリのクローンを作成するスクリプトの例です。 @@ -87,7 +87,7 @@ image::vantagecloud-lake/{dir}/upload.png[バケットにアップロードさ image::vantagecloud-lake/{dir}/detailsenv.png[ノートブック環境の詳細,align="center" width=75%] -* Environment(環境)で**Browse(参照)**を選択して、Google Cloud Bucketからstartup.shスクリプトを選択する。 +* Environment(環境)で **Browse(参照)** を選択して、Google Cloud Bucketからstartup.shスクリプトを選択する。 image::vantagecloud-lake/{dir}/startupscript.png[スタートアップスクリプトを選択する,align="center" width=75%] @@ -122,7 +122,7 @@ print("My Public IP is:", my_public_ip) image::vantagecloud-lake/{dir}/sagemaker-lake.PNG[JupyterLabを開始する,align="center" width=75%] == vars.jsonを編集する -ノートブックの`lake-demos`ディレクトリに移動します。 +ノートブックの `lake-demos` ディレクトリに移動します。 image::vantagecloud-lake/{dir}/notebooklauncher.png[ノートブックランチャー,align="center" width=75%] @@ -143,16 +143,16 @@ image::vantagecloud-lake/{dir}/openvars.png[vars.json,align="center" width=75%] | VantageCloud Lake 環境のマスター パスワード |==== -Public IPアドレスとOpen Analyticsエンドポイントを取得するには、次のhttps://quickstarts.teradata.com/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.html#_create_vantagecloud_lake_environment[手順]に従います。 +Public IPアドレスとOpen Analyticsエンドポイントを取得するには、次の https://quickstarts.teradata.com/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.html#_create_vantagecloud_lake_environment[手順] に従います。 ==== IMPORTANT: vars.json ファイルのパスワードを変更します。サンプル vars.json では、すべてのユーザーのパスワードがデフォルトで「password」に設定されていることがわかります。これはサンプル ファイルの問題にすぎず、これらのパスワードをすべて変更する必要があります。 フィールドを強力なパスワードに設定し、必要に応じて保護し、他のパスワード管理のベスト プラクティスに従ってください。 ==== == デモを実行する -*0_Demo_Environment_Setup.ipynb*内のすべてのセルを実行して、環境をセットアップします。続いて*1_Demo_Setup_Base_Data.ipynb*を実行して、デモに必要な基本データをロードします。 +*0_Demo_Environment_Setup.ipynb* 内のすべてのセルを実行して、環境をセットアップします。続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 -デモ ノートブックの詳細については、GGitHubのhttps://github.com/Teradata/lake-demos[Teradata Lake demos]ページを参照してください。 +デモ ノートブックの詳細については、GitHubの https://github.com/Teradata/lake-demos[Teradata Lake demos] ページを参照してください。 == まとめ -このクイックスタート ガイドでは、VantageCloud Lake の https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos] を実行するように Google Cloud Vertex AI Workbench Notebooks を構成しました。 \ No newline at end of file +このクイックスタート ガイドでは、VantageCloud Lake の https://github.com/Teradata/lake-demos[Teradata Jupyter Notebook Demos] を実行するように Google Cloud Vertex AI Workbench Notebooks を構成しました。 \ No newline at end of file diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-sagemaker.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-sagemaker.adoc index 44c83dfb7..f2ee44d6c 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-sagemaker.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demo-jupyter-sagemaker.adoc @@ -9,10 +9,10 @@ :dir: vantagecloud-lake-demo-jupyter-sagemaker == 概要 -このクイックスタートでは、AWS の AI/ML プラットフォームである Amazon SageMaker でhttps://github.com/Teradata/lake-demos[ Teradata Jupyter Notebook Demos for VantageCloud Lake]を実行するプロセスについて詳しく説明します。 +このクイックスタートでは、AWS の AI/ML プラットフォームである Amazon SageMaker で https://github.com/Teradata/lake-demos[ Teradata Jupyter Notebook Demos for VantageCloud Lake] を実行するプロセスについて詳しく説明します。 == 前提条件 -* Teradata modules for Jupyter (ダウンロードはhttps://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[こちら]、登録が必要です) +* Teradata modules for Jupyter (ダウンロードは https://downloads.teradata.com/download/tools/vantage-modules-for-jupyter[こちら] 、登録が必要です) * S3 および SageMaker にアクセスできる AWS アカウント * https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html[VantageCloud Lake環境へのアクセス] @@ -178,7 +178,8 @@ image::vantagecloud-lake/{dir}/sagemaker-lake.PNG[JupyterLabを開始する,alig == VantageCloud Lake の Jupyter Notebook デモ === 構成 -* https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json]は、VantageCloud Lake 環境の構成に一致するように編集する必要がある + +* https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json] は、VantageCloud Lake 環境の構成に一致するように編集する必要がある ++ image::vantagecloud-lake/{dir}/sagemaker-vars.PNG[JupyterLabを開始する,align="center" width=75%] @@ -204,9 +205,9 @@ IMPORTANT: vars.json ファイル内のすべてのパスワードを忘れず * サンプル vars.json では、すべてのユーザーのパスワードがデフォルトで「password」に設定されていることがわかります。これは説明を目的としたものであり、これらのパスワード フィールドをすべて強力なパスワードに変更し、必要に応じて保護し、次の手順を実行する必要があります。 その他のパスワード管理のベスト プラクティス。 == デモを実行する -*0_Demo_Environment_Setup.ipynb*のすべてのセルを開いて実行し、環境変数を設定します。続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 +*0_Demo_Environment_Setup.ipynb* のすべてのセルを開いて実行し、環境変数を設定します。続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 -デモ ノートブックの詳細については、GGitHubのhttps://github.com/Teradata/lake-demos[Teradata Lake demos]ページを参照してください。 +デモ ノートブックの詳細については、GGitHubの https://github.com/Teradata/lake-demos[Teradata Lake demos] ページを参照してください。 == まとめ diff --git a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demos-visual-studio-code.adoc b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demos-visual-studio-code.adoc index e3aa864df..55c263b07 100644 --- a/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demos-visual-studio-code.adoc +++ b/modules/ROOT/pages/ja/vantagecloud-lake/vantagecloud-lake-demos-visual-studio-code.adoc @@ -16,12 +16,12 @@ image::vantagecloud-lake/{dir}/vscode.png[vscode.png,align="center", width=80%] == 前提条件 始める前に、次の前提条件が整っていることを確認します。 -* インストールされたhttps://www.docker.com/products/docker-desktop/[Docker Desktop] -* インストールされたhttps://git-scm.com/book/en/v2/Getting-Started-Installing-Git[Git] +* インストールされた https://www.docker.com/products/docker-desktop/[Docker Desktop] +* インストールされた https://git-scm.com/book/en/v2/Getting-Started-Installing-Git[Git] ** git repoをダウンロードする必要がある https://github.com/Teradata/lake-demos.git -* インストールされたhttps://code.visualstudio.com/download[Visual Studio Code] +* インストールされた https://code.visualstudio.com/download[Visual Studio Code] * Teradata ウェルカム レターの組織 URL とログイン詳細を含む Teradata VantageCloud Lake アカウント -** ログインしたら、次のhttps://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html#_create_an_environment[手順]に従って VantageCloud Lake 環境を作成する +** ログインしたら、次の https://quickstarts.teradata.com/getting-started-with-vantagecloud-lake.html#_create_an_environment[手順] に従って VantageCloud Lake 環境を作成する == VantageCloud Lakeデモリポジトリのクローンを作成する まず、GitHub リポジトリのクローンを作成し、プロジェクト ディレクトリに移動する。 @@ -31,7 +31,7 @@ git clone https://github.com/Teradata/lake-demos.git cd lake-demos ---- == Teradata Jupyter Exrementsを使用してJupyterlabのDockerコンテナを起動する -VantageCloud Lake デモを起動するには、https://hub.docker.com/r/teradata/jupyterlab-extensions[Teradata Jupyter Extensions for Docker]が必要です。これらの拡張機能は、SQL ipython カーネル、Teradata への接続を管理するユーティリティ、および Teradata データベースとの対話時の生産性を高めるデータベース オブジェクト エクスプローラを提供します。 +VantageCloud Lake デモを起動するには、 https://hub.docker.com/r/teradata/jupyterlab-extensions[Teradata Jupyter Extensions for Docker] が必要です。 これらの拡張機能は、SQL ipython カーネル、Teradata への接続を管理するユーティリティ、および Teradata データベースとの対話時の生産性を高めるデータベース オブジェクト エクスプローラを提供します。 次に、コンテナを起動し、既存の lake-demos ディレクトリにバインドします。オペレーティング システムに基づいて適切なコマンドを選択します。 @@ -63,7 +63,7 @@ docker run -e "accept_license=Y" -p 127.0.0.1:8888:8888 -v $PWD:/home/jovyan/Jup image::vantagecloud-lake/{dir}/terminal.png[terminal.png,align="center", width=80%] == Visual Studio Code の構成 -Visual Studio Codeで`lake-demos`プロジェクトディレクトリを開く。リポジトリには次のプロジェクト ツリーが含まれている。 +Visual Studio Codeで `lake-demos` プロジェクトディレクトリを開く。リポジトリには次のプロジェクト ツリーが含まれている。 LAKE_DEMOS @@ -76,7 +76,8 @@ LAKE_DEMOS * https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.jsonファイル] === vars.json ファイルを編集する -*https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json file]*ファイルを編集して、デモを実行するために必要な認証情報を含める + +*https://github.com/Teradata/lake-demos/blob/main/vars.json[vars.json file]* ファイルを編集して、デモを実行するために必要な認証情報を含める ++ [cols="1,1"] |==== @@ -89,7 +90,7 @@ LAKE_DEMOS | VantageCloud Lake 環境のマスター パスワード |==== -Public IPアドレスとOpen Analyticsエンドポイントを取得するには、次のhttps://quickstarts.teradata.com/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.html[手順]に従います。 +Public IPアドレスとOpen Analyticsエンドポイントを取得するには、次の https://quickstarts.teradata.com/vantagecloud-lake/vantagecloud-lake-demo-jupyter-docker.html[手順] に従います。 ==== IMPORTANT: vars.json ファイルのパスワードを変更します。 サンプル vars.json では、すべてのユーザーのパスワードがデフォルトで「password」に設定されていることがわかります。これはサンプル ファイルに関するものであり、これらのパスワード フィールドをすべて強力なパスワードに変更し、必要に応じて保護する必要があります。 他のパスワード管理のベスト プラクティスに従ってください。 @@ -115,13 +116,13 @@ image::vantagecloud-lake/{dir}/search.png[検索,width=50%,opts="inline"] image::vantagecloud-lake/{dir}/replace.png[置換,width=50%,opts="inline"] === Jupyterカーネルを構成する -*0_Demo_Environment_Setup.ipynb*を開き、Visual Studio Codeの右上にあるSelect Kernelをクリックします。 +*0_Demo_Environment_Setup.ipynb* を開き、Visual Studio Codeの右上にあるSelect Kernelをクリックします。 Jupyter および Python 拡張機能をインストールしていない場合は、Visual Studio Code によってそれらをインストールするように求められます。これらの拡張機能は、Visual Studio Code がカーネルを検出するために必要です。これらをインストールするには、「Install/Enable suggested extensions for Python and Jupyter」を選択します。 image::vantagecloud-lake/{dir}/select.kernel.png[select.kernel.png,align="center"] -必要な拡張機能をインストールすると、ドロップダウン メニューにオプションが表示されます。**既存のJupyterカーネル**を選択します。 +必要な拡張機能をインストールすると、ドロップダウン メニューにオプションが表示されます。**既存のJupyterカーネル** を選択します。 image::vantagecloud-lake/{dir}/existing.kernel.png[existing.kernel.png,align="center"] @@ -144,8 +145,8 @@ image::vantagecloud-lake/{dir}/server.display.name.png[server.display.name.png,a image::vantagecloud-lake/{dir}/python.kernel.png[python.kernel.png,align="center"] === デモを実行する -*0_Demo_Environment_Setup.ipynb*内のすべてのセルを実行して、環境をセットアップします。続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 -デモ ノートブックの詳細については、GGitHubのhttps://github.com/Teradata/lake-demos[Teradata Lake demos]ページを参照してください。 +*0_Demo_Environment_Setup.ipynb* 内のすべてのセルを実行して、環境をセットアップします。続いて *1_Demo_Setup_Base_Data.ipynb* を実行して、デモに必要な基本データをロードします。 +デモ ノートブックの詳細については、GGitHubの https://github.com/Teradata/lake-demos[Teradata Lake demos] ページを参照してください。 image::vantagecloud-lake/{dir}/demoenvsetup.png[demoenvsetup.png,align="center", width=70%] diff --git a/supplemental_ui/partials/head-meta.hbs b/supplemental_ui/partials/head-meta.hbs index 0817d21eb..015f53dd5 100644 --- a/supplemental_ui/partials/head-meta.hbs +++ b/supplemental_ui/partials/head-meta.hbs @@ -832,6 +832,10 @@ aside.toc.sidebar { font-family: Inter; font-size: 16px; } +.doc .admonitionblock td.icon i.icon-tip { + background-color: transparent; + color: #00233C; +} .doc .admonitionblock td.icon i.icon-note { background-color: transparent; color: #00233C;