From 2f06905e8fdb7f33cdc93e7fa72394d099908cd7 Mon Sep 17 00:00:00 2001 From: guacbot Date: Fri, 17 Jan 2025 23:16:10 +0000 Subject: [PATCH 01/33] Translated file updates --- .../archive_logs/http_server.md | 333 ++++++++++++++++++ .../dual_ship_logs/google_pubsub.md | 237 +++++++++++++ .../generate_metrics/google_pubsub.md | 237 +++++++++++++ .../log_volume_control/google_pubsub.md | 237 +++++++++++++ .../split_logs/google_pubsub.md | 237 +++++++++++++ 5 files changed, 1281 insertions(+) create mode 100644 content/es/observability_pipelines/set_up_pipelines/archive_logs/http_server.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/google_pubsub.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/log_volume_control/google_pubsub.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/split_logs/google_pubsub.md diff --git a/content/es/observability_pipelines/set_up_pipelines/archive_logs/http_server.md b/content/es/observability_pipelines/set_up_pipelines/archive_logs/http_server.md new file mode 100644 index 0000000000000..5e914d424aeb3 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/archive_logs/http_server.md @@ -0,0 +1,333 @@ +--- +disable_toc: false +title: Archivar logs para el servidor HTTP +--- + +## Información general + +Utiliza el worker de Observability Pipelines para formatear tus logs de cliente HTTP en un formato que Datadog puede rehidratar antes de dirigirlos a archivos de logs de Datadog. + +{{% observability_pipelines/use_case_images/archive_logs %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de un archivo de logs](#configure-a-log-archive) +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/http_server %}} + +## Configurar archivos de logs + +Si ya tienes un archivo de logs de Datadog configurado para Observability Pipelines, pasa a [Configurar Observability Pipelines](#set-up-observability-pipelines). + +A fin de configurar el archivo de logs de Datadog, debes tener instalada la integración de Datadog para tu proveedor de nube. Consulta la documentación de la [integración de AWS][1], [Google Cloud Platform][2] y la [integración de Azure][3] para obtener más información. + +Selecciona el proveedor de la nube que utilizas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h4" %}} +{{% observability_pipelines/configure_log_archive/amazon_s3/instructions %}} + +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/configure_log_archive/amazon_s3/docker %}} + +{{% /tab %}} +{{% tab "Amazon EKS" %}} + +{{% observability_pipelines/configure_log_archive/amazon_s3/amazon_eks %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/configure_log_archive/amazon_s3/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/configure_log_archive/amazon_s3/linux_rpm %}} + +{{% /tab %}} +{{< /tabs >}} + +{{% observability_pipelines/configure_log_archive/amazon_s3/connect_s3_to_datadog_log_archives %}} + +{{% /collapse-content %}} + +{{% collapse-content title="Google Cloud Storage" level="h4" %}} + +{{% observability_pipelines/configure_log_archive/google_cloud_storage/instructions %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h4" %}} + +{{% observability_pipelines/configure_log_archive/azure_storage/instructions %}} + +{{% /collapse-content %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Archive Logs** (Archivar logs) para crear un nuevo pipeline. +1. Selecciona el origen **HTTP Server** (Servidor HTTP). + +### Configurar el origen + +{{% observability_pipelines/source_settings/http_server %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Archivos de Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_note %}} + +Sigue las instrucciones del proveedor de nube que usas para archivar tus logs. + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_settings/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Introduce la dirección del servidor HTTP/S, como `0.0.0.0:9997`. El worker de Observability Pipelines escucha esta dirección de socket para tus logs de cliente HTTP. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Archivos de Datadog" %}} + +{{% collapse-content title="Amazon S3" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_amazon_s3 %}} + +{{% /collapse-content %}} +{{% collapse-content title="Google Cloud Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_google_cloud_storage %}} + +{{% /collapse-content %}} +{{% collapse-content title="Azure Storage" level="h5" %}} + +{{% observability_pipelines/destination_env_vars/datadog_archives_azure_storage %}} + +{{% /collapse-content %}} + +{{% /tab %}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: /es/integrations/amazon_web_services/#setup +[2]: /es/integrations/google_cloud_platform/#setup +[3]: /es/integrations/azure/#setup +[4]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/google_pubsub.md new file mode 100644 index 0000000000000..14f7ccc25cc92 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/dual_ship_logs/google_pubsub.md @@ -0,0 +1,237 @@ +--- +disable_toc: false +title: Envío doble de logs para Google Pub/Sub +--- + +## Información general + +Configura Google Pub/Sub y Observability Pipelines para que el worker de Observability Pipelines agregue y procese los logs provenientes de tus orígenes ascendentes antes de enrutarlos a varias aplicaciones. + +{{% observability_pipelines/use_case_images/dual_ship_logs %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/google_pubsub %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Dual Ship Logs** (Envío doble de logs) para crear un pipeline nuevo. +1. Selecciona el origen **Google Pub/Sub**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/google_pubsub %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md new file mode 100644 index 0000000000000..f2ac671fd3e27 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/google_pubsub.md @@ -0,0 +1,237 @@ +--- +disable_toc: false +title: Generar métricas para Google Pub/Sub +--- + +## Información general + +Envía logs de Google Pub/Sub al worker de Observability Pipelines para que puedas generar métricas a partir de esos logs. + +{{% observability_pipelines/use_case_images/generate_metrics %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/google_pubsub %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Generate Metrics** (Generar métricas) para crear un pipeline nuevo. +1. Selecciona el origen **Google Pub/Sub**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/google_pubsub %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/log_volume_control/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/google_pubsub.md new file mode 100644 index 0000000000000..2042af77eac17 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/log_volume_control/google_pubsub.md @@ -0,0 +1,237 @@ +--- +disable_toc: false +title: Control del volumen de logs para Google Pub/Sub +--- + +## Información general + +Configura el worker de Observability Pipelines con el origen de Google Pub/Sub para que sólo enrute logs útiles a tus destinos. + +{{% observability_pipelines/use_case_images/log_volume_control %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/google_pubsub %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Log Volume Control** (Control del volumen de logs) para crear un pipeline nuevo. +1. Selecciona el origen **Google Pub/Sub**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/google_pubsub %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/set_up_pipelines/split_logs/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/split_logs/google_pubsub.md new file mode 100644 index 0000000000000..d6c90ff228fec --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/split_logs/google_pubsub.md @@ -0,0 +1,237 @@ +--- +disable_toc: false +title: Dividir logs para Google Pub/Sub +--- + +## Información general + +Configura Google Pub/Sub para enviar logs al worker de Observability Pipelines y luego procesar y enrutarlos a diferentes destinos en función de tu caso de uso. + +{{% observability_pipelines/use_case_images/split_logs %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/google_pubsub %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Split Logs** (Dividir logs) para crear un pipeline nuevo. +1. Selecciona el origen **Google Pub/Sub**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/google_pubsub %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file From 1e4a298de30bfb9c278ec184b714126065bda2be Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 01:16:07 +0000 Subject: [PATCH 02/33] Translated file updates --- content/es/integrations/catchpoint.md | 117 +++++++++++++------------- 1 file changed, 58 insertions(+), 59 deletions(-) diff --git a/content/es/integrations/catchpoint.md b/content/es/integrations/catchpoint.md index 8401513ffd597..2382f24ae8cc9 100644 --- a/content/es/integrations/catchpoint.md +++ b/content/es/integrations/catchpoint.md @@ -1,60 +1,60 @@ --- -"app_id": "catchpoint" -"app_uuid": "e80ef287-1a1a-4b73-94e7-3c1d6fe66eaf" -"assets": - "dashboards": - "catchpoint": "assets/dashboards/Catchpoint_dashboard.json" - "integration": - "auto_install": true - "events": - "creates_events": true - "metrics": - "check": - - "catchpoint.success.rate" - "metadata_path": "metadata.csv" - "prefix": "catchpoint." - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "132" - "source_type_name": "Catchpoint" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "metrics" -- "issue tracking" -- "network" -- "event management" -"custom_kind": "integración" -"dependencies": [] -"display_on_public_website": true -"draft": false -"git_integration_title": "catchpoint" -"integration_id": "catchpoint" -"integration_title": "Catchpoint" -"integration_version": "" -"is_public": true -"manifest_version": "2.0.0" -"name": "catchpoint" -"public_title": "Catchpoint" -"short_description": "Envía tus alertas de Catchpoint a tu flujo de eventos de Datadog." -"supported_os": [] -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::métricas" - - "Category::rastreo de problemas" - - "Category::red" - - "Category::gestión de eventos" - - "Offering::integración" - "configuration": "README.md#Setup" - "description": "Envía tus alertas de Catchpoint a tu flujo de eventos de Datadog." - "media": [] - "overview": "README.md#Overview" - "support": "README.md#Support" - "title": "Catchpoint" +app_id: catchpoint +app_uuid: e80ef287-1a1a-4b73-94e7-3c1d6fe66eaf +assets: + dashboards: + catchpoint: assets/dashboards/Catchpoint_dashboard.json + integration: + auto_install: true + events: + creates_events: true + metrics: + check: + - catchpoint.success.rate + metadata_path: metadata.csv + prefix: catchpoint. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: 132 + source_type_name: Catchpoint +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- metrics +- issue tracking +- network +- event management +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: catchpoint +integration_id: catchpoint +integration_title: Catchpoint +integration_version: '' +is_public: true +manifest_version: 2.0.0 +name: catchpoint +public_title: Catchpoint +short_description: Envía tus alertas de Catchpoint a tu flujo de eventos de Datadog. +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::métricas + - Category::rastreo de problemas + - Category::red + - Category::gestión de eventos + - Offering::integración + configuration: README.md#Setup + description: Envía tus alertas de Catchpoint a tu flujo de eventos de Datadog. + media: [] + overview: README.md#Overview + support: README.md#Support + title: Catchpoint --- @@ -843,8 +843,7 @@ La integración de Catchpoint no incluye ningún check de servicios. ¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][5]. [1]: https://app.datadoghq.com/integrations/catchpoint -[2]: https://docs.datadoghq.com/service_management/events/ +[2]: https://docs.datadoghq.com/es/service_management/events/ [3]: https://github.com/DataDog/dogweb/blob/prod/integration/catchpoint/catchpoint_metadata.csv [4]: https://app.datadoghq.com/dash/integration/32054/catchpoint-dashboard -[5]: https://docs.datadoghq.com/help/ - +[5]: https://docs.datadoghq.com/es/help/ \ No newline at end of file From 8d45ddc9dddb3ed9e5603325bf5639bfd949752d Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 03:16:05 +0000 Subject: [PATCH 03/33] Translated file updates From 3c8d8ff6d22bc862899fa50014f7bd6315251fc0 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 05:16:01 +0000 Subject: [PATCH 04/33] Translated file updates --- .../log_enrichment/google_pubsub.md | 237 ++++++++++++++++++ 1 file changed, 237 insertions(+) create mode 100644 content/es/observability_pipelines/set_up_pipelines/log_enrichment/google_pubsub.md diff --git a/content/es/observability_pipelines/set_up_pipelines/log_enrichment/google_pubsub.md b/content/es/observability_pipelines/set_up_pipelines/log_enrichment/google_pubsub.md new file mode 100644 index 0000000000000..dab2ecd1d2458 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/log_enrichment/google_pubsub.md @@ -0,0 +1,237 @@ +--- +disable_toc: false +title: Enriquecimiento de logs para Google Pub/Sub +--- + +## Información general + +Configura tu Google Pub/Sub para enviar logs al worker de Observability Pipelines y enriquecer y transformar tus logs antes de enrutarlos a su destino. + +{{% observability_pipelines/use_case_images/log_enrichment %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/google_pubsub %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Log Enrichment** (Enriquecimiento de logs) para crear un pipeline nuevo. +1. Selecciona el origen **Google Pub/Sub**. + +### Configurar el origen + +{{% observability_pipelines/source_settings/google_pubsub %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file From cd9df1f098891e52bea253bc168cd0bfd63fc292 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 07:16:02 +0000 Subject: [PATCH 05/33] Translated file updates From 9bff9b81fe9c56a98197acd63a69450251b1c1eb Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 09:16:33 +0000 Subject: [PATCH 06/33] Translated file updates --- content/es/integrations/cilium.md | 4 +- content/es/integrations/citrix_hypervisor.md | 2 +- content/es/integrations/external_dns.md | 4 +- content/es/integrations/go_expvar.md | 160 ++++++++++++ .../es/integrations/kube_apiserver_metrics.md | 2 +- content/es/integrations/powerdns_recursor.md | 238 ++++++++++++++++++ content/ja/integrations/aerospike.md | 2 +- content/ja/integrations/amazon_msk.md | 2 +- content/ja/integrations/argo_rollouts.md | 2 +- content/ja/integrations/cert_manager.md | 2 +- content/ja/integrations/couchbase.md | 2 +- content/ja/integrations/crio.md | 2 +- content/ja/integrations/druid.md | 6 +- content/ja/integrations/eks_fargate.md | 2 +- content/ja/integrations/ibm_was.md | 2 +- content/ja/integrations/powerdns_recursor.md | 2 +- content/ja/integrations/pulsar.md | 2 +- content/ja/integrations/sap_hana.md | 2 +- data/partials/home.es.yaml | 46 ++-- 19 files changed, 441 insertions(+), 43 deletions(-) create mode 100644 content/es/integrations/go_expvar.md create mode 100644 content/es/integrations/powerdns_recursor.md diff --git a/content/es/integrations/cilium.md b/content/es/integrations/cilium.md index ce9aa886bcae3..ae8fe8b3f2cb9 100644 --- a/content/es/integrations/cilium.md +++ b/content/es/integrations/cilium.md @@ -33,7 +33,7 @@ categories: - red - seguridad - recopilación de logs -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/cilium/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: cilium integration_id: cilium integration_title: Cilium -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: cilium diff --git a/content/es/integrations/citrix_hypervisor.md b/content/es/integrations/citrix_hypervisor.md index 50dd8e85533fc..1bf98f8dbcfea 100644 --- a/content/es/integrations/citrix_hypervisor.md +++ b/content/es/integrations/citrix_hypervisor.md @@ -35,7 +35,7 @@ draft: false git_integration_title: citrix_hypervisor integration_id: citrix-hypervisor integration_title: Citrix Hypervisor -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: citrix_hypervisor diff --git a/content/es/integrations/external_dns.md b/content/es/integrations/external_dns.md index d5c43b1e5d037..c43c07eae2352 100644 --- a/content/es/integrations/external_dns.md +++ b/content/es/integrations/external_dns.md @@ -23,7 +23,7 @@ author: support_email: ayuda@datadoghq.com categories: - la red -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/external_dns/README.md display_on_public_website: true @@ -31,7 +31,7 @@ draft: false git_integration_title: dns_externo integration_id: dns-externo integration_title: DNS externo -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: dns_externo diff --git a/content/es/integrations/go_expvar.md b/content/es/integrations/go_expvar.md new file mode 100644 index 0000000000000..886f3d1c9d430 --- /dev/null +++ b/content/es/integrations/go_expvar.md @@ -0,0 +1,160 @@ +--- +"app_id": "expvar-go" +"app_uuid": "cac5ebe3-fa36-49f7-93c5-22116c745e80" +"assets": + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "go_expvar.memstats.alloc" + "metadata_path": "metadata.csv" + "prefix": "expvar-go". + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "77" + "source_type_name": "Expvar Go" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "languages" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/go_expvar/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "expvar-go" +"integration_id": "expvar-go" +"integration_title": "Expvar Go" +"integration_version": "4.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "expvar-go" +"public_title": "Expvar Go" +"short_description": "Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go." +"supported_os": +- "linux" +- "macos" +- "windows" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Supported OS::Linux" + - "Supported OS::macOS" + - "Supported OS::Windows" + - "Category::Lenguajes" + - "Offering::Integración" + "configuration": "README.md#Configuración" + "description": "Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go." + "media": [] + "overview": "README.md#Información general" + "resources": + - "resource_type": "blog" + "url": "https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog" + "support": "README.md#Soporte" + "title": "Expvar Go" +--- + + + + +¡[Ir al gráfico][1] + +## Información general + +Realiza un seguimiento del uso de memoria de tus servicios Go y recopila métricas instrumentadas desde el paquete Expvar Go. + +Si prefieres instrumentar tu código Go utilizando sólo [dogstats-go][2], todavía podrás utilizar esta integración para recopilar métricas relacionadas con la memoria. + +## Configuración + +### Instalación + +El check de Expvar Go está incluido en el paquete del Agent, así que [instala el Agent][3] en cualquier lugar donde ejecutes servicios Go para recopilar métricas. + +### Configuración + +#### Preparación del servicio + +Si tu servicio Go no utiliza el [paquete expvar][4], impórtalo (`import "expvar"`). Si no quieres instrumentar tus propias métricas con expvar, es decir, si sólo quieres recopilar métricas de memoria de tu servicio, importa el paquete utilizando el identificador en blanco (`import _ "expvar"`). Si tu servicio aún no escucha solicitudes HTTP (con el paquete http), [haz que escuche][5] localmente sólo al Datadog Agent. + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +##### Conexión del Agent + +1. Edita el archivo `go_expvar.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración de tu Agent][1]. Para conocer todas las opciones de configuración disponibles, consulta el [go_expvar.d/conf.yaml de ejemplo][2]: + + **Nota**: Si no configuras una lista de `metrics`, el Agent sigue recopilando métricas memstat. Utiliza `metrics` para indicar al Agent qué variables expvar debe recopilar. + +2. [Reinicia el Agent][3]. + +**Nota**: La integración Expvar Go puede potencialmente emitir [métricas personalizadas][4], lo que puede afectar a tu [facturación][5]. Por defecto, existe un límite de 350 métricas. Si necesitas más métricas, ponte en contacto con el [servicio de asistencia de Datadog][6]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/go_expvar/datadog_checks/go_expvar/data/conf.yaml.example +[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[4]: https://docs.datadoghq.com/developers/metrics/custom_metrics/ +[5]: https://docs.datadoghq.com/account_management/billing/custom_metrics/ +[6]: https://docs.datadoghq.com/help/ +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### En contenedores + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | ---------------------------------------- | +| `` | `go_expvar` | +| `` | en blanco o `{}` | +| `` | `{"expvar_url": "http://%%host%%:8080"}` | + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][6] y busca `go_expvar` en la sección **Checks**. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "go_expvar" >}} + + +### Eventos + +El check de Expvar Go no incluye eventos. + +### Checks de servicio + +El check de Expvar Go no incluye checks de servicio. + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][7]. + +## Referencias adicionales + +- [Instrumentación de tus aplicaciones Go con Expvar y Datadog][8] + + +[1]: https://raw.githubusercontent.com/DataDog/integrations-core/master/go_expvar/images/go_graph.png +[2]: https://github.com/DataDog/datadog-go +[3]: https://app.datadoghq.com/account/settings/agent/latest +[4]: https://golang.org/pkg/expvar +[5]: https://golang.org/pkg/net/http/#ListenAndServe +[6]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[7]: https://docs.datadoghq.com/help/ +[8]: https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog diff --git a/content/es/integrations/kube_apiserver_metrics.md b/content/es/integrations/kube_apiserver_metrics.md index 89052f1a29596..590f9f6f15dc2 100644 --- a/content/es/integrations/kube_apiserver_metrics.md +++ b/content/es/integrations/kube_apiserver_metrics.md @@ -34,7 +34,7 @@ draft: false git_integration_title: kube_apiserver_metrics integration_id: kube-apiserver-metrics integration_title: Métricas del servidor de API Kubernetes -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: kube_apiserver_metrics diff --git a/content/es/integrations/powerdns_recursor.md b/content/es/integrations/powerdns_recursor.md new file mode 100644 index 0000000000000..ecd3da1c1856f --- /dev/null +++ b/content/es/integrations/powerdns_recursor.md @@ -0,0 +1,238 @@ +--- +"app_id": "powerdns" +"app_uuid": "44e491e1-f7c3-447a-b597-e740196479e0" +"assets": + "dashboards": + "powerdns": "assets/dashboards/powerdns_dashboard.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "powerdns.recursor.questions" + "metadata_path": "metadata.csv" + "prefix": "powerdns." + "process_signatures": + - "pdns_server" + - "systemctl start pdns@" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "144" + "source_type_name": "PowerDNS Recursor" + "saved_views": + "powerdns_processes": "assets/saved_views/powerdns_processes.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "caching" +- "log collection" +- "network" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "powerdns_recursor" +"integration_id": "powerdns" +"integration_title": "Power DNS Recursor" +"integration_version": "4.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "powerdns_recursor" +"public_title": "Power DNS Recursor" +"short_description": "Vigila el tráfico extraño hacia y desde tus Power DNS Recursors". +"supported_os": +- "linux" +- "windows" +- "macos" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Category::Caché" + - "Category::Recopilación de logs" + - "Category::Red" + - "Supported OS::Linux" + - "Supported OS::Windows" + - "Supported OS::macOS" + - "Offering::Integración" + "configuration": "README.md#Configuración" + "description": "Vigila el tráfico extraño hacia y desde tus Power DNS Recursors". + "media": [] + "overview": "README.md#Información general" + "support": "README.md#Soporte" + "title": "Power DNS Recursor" +--- + + + + +## Información general + +Realiza un seguimiento del rendimiento de tu PowerDNS Recursor y monitoriza el tráfico extraño o preocupante. Este check del Agent recopila una variedad de métricas de tus recursors, incluyendo los de: + +- Tiempos de respuesta de las consultas, para observar cuántas respuestas tardan menos de 1ms, 10ms, 100ms, 1s o más de 1s. +- Tiempos de espera de consultas. +- Aciertos y errores de caché. +- Índices de respuesta por tipo: SRVFAIL, NXDOMAIN, NOERROR. +- Paquetes ignorados y descartados. + +Y muchos más. + +## Configuración + +### Instalación + +El check del PowerDNS Recursor está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus recursors. + +### Configuración + +#### Preparación de PowerDNS + +Este check recopila estadísticas de rendimiento utilizando la API de estadísticas del PowerDNS Recursor. Las versiones de pdns_recursor anteriores a la v4.1 no habilitan la API de estadísticas por defecto. Si estás ejecutando una versión anterior, habilítala añadiendo lo siguiente a tu archivo de configuración del recursor, por ejemplo `/etc/powerdns/recursor.conf`: + +```conf +webserver=yes +api-key=changeme # sólo disponible a partir de la v4.0 +webserver-readonly=yes # por defecto no +#puerto del servidor web=8081 # por defecto 8082 +#dirección del servidor web=0.0.0.0 # por defecto 127.0.0.1 +``` + +Si ejecutas pdns_recursor v3.x, añade `experimental-` a los nombres de estas opciones, por ejemplo: `experimental-webserver=yes`. + +Si ejecutas pdns_recursor v4.1 o posterior, simplemente configura `api-key`. + +Reinicia el recursor para habilitar la API de estadísticas. + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host: + +1. Edita el archivo `powerdns_recursor.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1]. Para ver todas las opciones de configuración disponibles, consulta el [powerdns_recursor.d/conf.yam de ejemplo][2]: + + ```yaml + init_config: + + instances: + ## @param host - string - required + ## Host running the recursor. + # + - host: 127.0.0.1 + + ## @param port - integer - required + ## Recursor web server port. + # + port: 8082 + + ## @param api_key - string - required + ## Recursor web server api key. + # + api_key: "" + + ## @param version - integer - required - default: 3 + ## Version 3 or 4 of PowerDNS Recursor to connect to. + ## The PowerDNS Recursor in v4 has a production ready web server that allows for + ## statistics gathering. In version 3.x the server was marked as experimental. + ## + ## As the server was marked as experimental in version 3 many of the metrics have + ## changed names and the API structure (paths) have also changed. With these changes + ## there has been a need to separate the two concerns. The check now has a key value + ## version: which if set to version 4 queries with the correct API path on the + ## non-experimental web server. + ## + ## https://doc.powerdns.com/md/httpapi/api_spec/#url-apiv1serversserver95idstatistics + # + version: 3 + ``` + +2. [Reinicia el Agent][3]. + +##### Recopilación de logs + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; debes habilitarla en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade el usuario `dd-agent` al grupo `systemd-journal` ejecutando: + ```text + usermod -a -G systemd-journal dd-agent + ``` + +3. Añade este bloque de configuración al archivo `powerdns_recursor.d/conf.yaml` para empezar a recopilar logs del PowerDNS Recursor: + + ```yaml + logs: + - type: journald + source: powerdns + ``` + + Para ver todas las opciones de configuración disponibles, consulta el [powerdns_recursor.d/conf.yaml de ejemplo][2]. + +4. [Reinicia el Agent][3]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/datadog_checks/powerdns_recursor/data/conf.yaml.example +[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### Contenedorizado + +Para entornos en contenedores, consulta las [plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican a continuación. + +| Parámetro | Valor | +| -------------------- | -------------------------------------------------------------------------------- | +| `` | `powerdns_recursor` | +| `` | en blanco o `{}` | +| `` | `{"host":"%%host%%", "port":8082, "api_key":"", "version": 3}` | + +##### Recopilación de logs + +La recopilación de logs está desactivada por defecto en Datadog Agent. Para activarla, consulta [recopilación de logs de Kubernetes][2]. + +| Parámetro | Valor | +|----------------|-------------------------------------------| +| `` | `{"source": "powerdns"}` | + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de `status` del Agent][2] y busca `powerdns_recursor` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "powerdns_recursor" >}} + + +### Eventos + +El check del PowerDNS Recursor no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "powerdns_recursor" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[3]: https://docs.datadoghq.com/help/ diff --git a/content/ja/integrations/aerospike.md b/content/ja/integrations/aerospike.md index 9146f6d6c351f..cc3a226292362 100644 --- a/content/ja/integrations/aerospike.md +++ b/content/ja/integrations/aerospike.md @@ -36,7 +36,7 @@ draft: false git_integration_title: aerospike integration_id: aerospike integration_title: Aerospike -integration_version: 4.0.1 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: aerospike diff --git a/content/ja/integrations/amazon_msk.md b/content/ja/integrations/amazon_msk.md index f2d53ae6cbb19..b7f0f8e2d7269 100644 --- a/content/ja/integrations/amazon_msk.md +++ b/content/ja/integrations/amazon_msk.md @@ -33,7 +33,7 @@ draft: false git_integration_title: amazon_msk integration_id: amazon-kafka integration_title: Amazon MSK (Agent) -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: amazon_msk diff --git a/content/ja/integrations/argo_rollouts.md b/content/ja/integrations/argo_rollouts.md index 4a762173aebf6..e51c1a17f8fb1 100644 --- a/content/ja/integrations/argo_rollouts.md +++ b/content/ja/integrations/argo_rollouts.md @@ -43,7 +43,7 @@ draft: false git_integration_title: argo_rollouts integration_id: argo-rollouts integration_title: Argo Rollouts -integration_version: 2.1.0 +integration_version: 2.2.0 is_public: true manifest_version: 2.0.0 name: argo_rollouts diff --git a/content/ja/integrations/cert_manager.md b/content/ja/integrations/cert_manager.md index ad6f9f26c8a0f..1f4b8745d011b 100644 --- a/content/ja/integrations/cert_manager.md +++ b/content/ja/integrations/cert_manager.md @@ -35,7 +35,7 @@ draft: false git_integration_title: cert_manager integration_id: cert-manager integration_title: cert-manager -integration_version: 5.1.0 +integration_version: 5.2.0 is_public: true manifest_version: 2.0.0 name: cert_manager diff --git a/content/ja/integrations/couchbase.md b/content/ja/integrations/couchbase.md index a20d29b893f2b..e45fdb88ac339 100644 --- a/content/ja/integrations/couchbase.md +++ b/content/ja/integrations/couchbase.md @@ -41,7 +41,7 @@ draft: false git_integration_title: couchbase integration_id: couchbase integration_title: CouchBase -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: couchbase diff --git a/content/ja/integrations/crio.md b/content/ja/integrations/crio.md index 5513415df0765..ea1f9d6672009 100644 --- a/content/ja/integrations/crio.md +++ b/content/ja/integrations/crio.md @@ -33,7 +33,7 @@ draft: false git_integration_title: crio integration_id: cri-o integration_title: CRI-O -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: crio diff --git a/content/ja/integrations/druid.md b/content/ja/integrations/druid.md index 10f6e905221b7..39f46d9e8a014 100644 --- a/content/ja/integrations/druid.md +++ b/content/ja/integrations/druid.md @@ -27,7 +27,7 @@ categories: - キャッシュ - data stores - ログの収集 -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/druid/README.md display_on_public_website: true @@ -35,7 +35,7 @@ draft: false git_integration_title: druid integration_id: druid integration_title: Druid -integration_version: 2.5.1 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: druid @@ -200,4 +200,4 @@ Druid チェックには イベントは含まれません。 [10]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information [11]: https://github.com/DataDog/integrations-core/blob/master/druid/metadata.csv [12]: https://github.com/DataDog/integrations-core/blob/master/druid/assets/service_checks.json -[13]: https://docs.datadoghq.com/ja/help/ +[13]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/eks_fargate.md b/content/ja/integrations/eks_fargate.md index de6d713991781..3bb600cbe5b19 100644 --- a/content/ja/integrations/eks_fargate.md +++ b/content/ja/integrations/eks_fargate.md @@ -31,7 +31,7 @@ draft: false git_integration_title: eks_fargate integration_id: eks-fargate integration_title: Amazon EKS on AWS Fargate -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: eks_fargate diff --git a/content/ja/integrations/ibm_was.md b/content/ja/integrations/ibm_was.md index bad8159f782f8..31fd5b4e2e0f8 100644 --- a/content/ja/integrations/ibm_was.md +++ b/content/ja/integrations/ibm_was.md @@ -34,7 +34,7 @@ draft: false git_integration_title: ibm_was integration_id: ibm-was integration_title: IBM WAS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: ibm_was diff --git a/content/ja/integrations/powerdns_recursor.md b/content/ja/integrations/powerdns_recursor.md index a498ba1f39377..8245f670094af 100644 --- a/content/ja/integrations/powerdns_recursor.md +++ b/content/ja/integrations/powerdns_recursor.md @@ -40,7 +40,7 @@ draft: false git_integration_title: powerdns_recursor integration_id: powerdns integration_title: Power DNS Recursor -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: powerdns_recursor diff --git a/content/ja/integrations/pulsar.md b/content/ja/integrations/pulsar.md index 8dbb9b43eeffb..477ae1da0e282 100644 --- a/content/ja/integrations/pulsar.md +++ b/content/ja/integrations/pulsar.md @@ -34,7 +34,7 @@ draft: false git_integration_title: pulsar integration_id: pulsar integration_title: Pulsar -integration_version: 3.1.0 +integration_version: 3.2.0 is_public: true manifest_version: 2.0.0 name: pulsar diff --git a/content/ja/integrations/sap_hana.md b/content/ja/integrations/sap_hana.md index 76c26e6ec707d..4d14c207b0e3b 100644 --- a/content/ja/integrations/sap_hana.md +++ b/content/ja/integrations/sap_hana.md @@ -34,7 +34,7 @@ draft: false git_integration_title: sap_hana integration_id: sap-hana integration_title: SAP HANA -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: sap_hana diff --git a/data/partials/home.es.yaml b/data/partials/home.es.yaml index 3e08639fe23b6..3e0cff29ee28e 100644 --- a/data/partials/home.es.yaml +++ b/data/partials/home.es.yaml @@ -43,20 +43,20 @@ nav_sections: link: watchdog/ title: Datadog Watchdog - desc: Ver alertas de Datadog, incidentes y más en tu dispositivo móvil - icon: mobile + icon: '' link: mobile/ title: Aplicación móvil - desc: Identificar, analizar y mitigar incidencias críticas en tu organización - icon: incidents - link: service_management/incident_management + icon: '' + link: '' title: Gestión de incidencias - desc: Dar seguimiento a los cambios y alertas en tus aplicaciones e infraestructura - icon: events + icon: '' link: events/ title: Eventos - desc: Automatizar y orquestar procesos en todo tu stack tecnológico - icon: workflows - link: service_management/workflows/ + icon: rastreo + link: '' title: Automatización de flujos de trabajo - desc: Cree aplicaciones de bajo código para agilizar sus herramientas internas icon: app-builder @@ -66,7 +66,7 @@ nav_sections: - name: Productos - navtiles: - desc: Supervisar tus hosts, contenedores, procesos y funciones serverless - icon: host-map + icon: '' link: infrastructure/ title: Infraestructura - desc: Detectar y solucionar problemas de rendimiento en tus aplicaciones serverless @@ -75,13 +75,13 @@ nav_sections: title: Serverless - desc: Usar objetos etiquetados para recopilar y generar gráficos de datos sobre el tráfico de tu red - icon: network - link: network_monitoring/ + icon: '' + link: '' title: Monitorización de red - desc: Controla tu gasto en la nube con datos unificados sobre observabilidad y costos - icon: cloud-cost-management - link: cloud_cost_management/ + icon: '' + link: '' title: Gestión de costos en la nube - desc: Explorar dashboards de rendimiento listos para usar y trazas distribuidas icon: apm @@ -89,29 +89,29 @@ nav_sections: title: APM - desc: Comparar snapshots de rendimiento e investigar cuellos de botella icon: profiling-1 - link: profiler/ + link: '' title: Continuous Profiler - desc: Explorar dashboards enriquecidos, métricas de consultas y ejemplos de consultas - icon: database-2 - link: database_monitoring/ + icon: '' + link: tracing/trace_explorer/ title: Monitorización de bases de datos - desc: Rastrear y mejorar el rendimiento de tus pipelines de streaming de datos - icon: datastreams-monitoring + icon: '' link: data_streams/ title: Data Streams Monitoring - desc: Monitorizar y optimizar tus trabajos de procesamiento de datos - icon: data-jobs-monitoring + icon: '' link: data_jobs/ title: Monitorización de trabajos de datos - desc: Descubrir, asignar y monitorizar servicios sin cambiar el código icon: usm - link: universal_service_monitoring/ + link: '' title: Universal Service Monitoring - desc: Garantizar el tiempo de actividad, avisar de problemas regionales y probar el rendimiento de aplicaciones - icon: synthetics - link: synthetics/ + icon: '' + link: '' title: Monitorización Synthetic - desc: Identificar los errores críticos y acelerar la resolución en la web, los dispositivos móviles y el backend. @@ -119,7 +119,7 @@ nav_sections: link: error_tracking/ title: Rastreo de errores - desc: Capturar, observar y analizar la experiencia del usuario de tus aplicaciones - icon: rum + icon: '' link: real_user_monitoring/ title: Real User Monitoring - desc: Obtener información sobre el comportamiento de los usuarios y tomar decisiones @@ -129,7 +129,7 @@ nav_sections: title: Análisis de productos - desc: Monitorizar recorridos del usuario y transacciones comerciales en aplicaciones móviles - icon: mobile + icon: '' link: mobile_app_testing/ title: Test de aplicaciones móviles - desc: Hacer tests de un extremo a otro y de integración sin código con proveedores @@ -151,7 +151,7 @@ nav_sections: link: security/ title: Seguridad - desc: Explorar, buscar y crear distribuciones para tus métricas - icon: metric + icon: '' link: metrics/ title: Métricas - desc: Procesar, monitorizar y archivar tus logs ingeridos @@ -163,7 +163,7 @@ nav_sections: link: observability_pipelines/ title: Pipelines de observabilidad - desc: Rastrear, monitorizar y asegurar tus solicitudes de LLM - icon: llm-observability + icon: '' link: llm_observability/ title: Observabilidad de LLM - nav_section: From 4c31b6d0efe81ccb88179fa76b1430efaaf2c61d Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 11:16:20 +0000 Subject: [PATCH 07/33] Translated file updates --- content/es/integrations/coredns.md | 4 +- content/es/integrations/kube_scheduler.md | 4 +- content/es/integrations/silk.md | 4 +- content/ja/integrations/coredns.md | 2 +- content/ja/integrations/etcd.md | 2 +- content/ja/integrations/fluentd.md | 2 +- content/ja/integrations/go_expvar.md | 2 +- content/ja/integrations/harbor.md | 2 +- content/ja/integrations/kong.md | 2 +- .../ja/integrations/kube_apiserver_metrics.md | 2 +- content/ja/integrations/nginx.md | 4 +- content/ja/integrations/silk.md | 2 +- content/ja/integrations/singlestore.md | 2 +- content/ja/integrations/sonarqube.md | 2 +- data/partials/platforms.es.yaml | 138 +++++++++--------- 15 files changed, 87 insertions(+), 87 deletions(-) diff --git a/content/es/integrations/coredns.md b/content/es/integrations/coredns.md index c238018cdd911..fce16f839fe02 100644 --- a/content/es/integrations/coredns.md +++ b/content/es/integrations/coredns.md @@ -35,7 +35,7 @@ categories: - Kubernetes - recopilación de logs - la red -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/coredns/README.md display_on_public_website: true @@ -43,7 +43,7 @@ draft: false git_integration_title: coredns integration_id: coredns integration_title: CoreDNS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: coredns diff --git a/content/es/integrations/kube_scheduler.md b/content/es/integrations/kube_scheduler.md index 38f166d7202a5..afd7c18792368 100644 --- a/content/es/integrations/kube_scheduler.md +++ b/content/es/integrations/kube_scheduler.md @@ -28,7 +28,7 @@ categories: - Kubernetes - recopilación de logs - orquestación -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/kube_scheduler/README.md display_on_public_website: true @@ -36,7 +36,7 @@ draft: false git_integration_title: kube_scheduler integration_id: kube-scheduler integration_title: Programador Kubernetes -integration_version: 4.10.1 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: kube_scheduler diff --git a/content/es/integrations/silk.md b/content/es/integrations/silk.md index f4d812636972c..a80c3ffcd84f8 100644 --- a/content/es/integrations/silk.md +++ b/content/es/integrations/silk.md @@ -29,7 +29,7 @@ categories: - nube - almacenes de datos - suministrar -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/silk/README.md display_on_public_website: true @@ -37,7 +37,7 @@ draft: false git_integration_title: silk integration_id: silk integration_title: Silk -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: silk diff --git a/content/ja/integrations/coredns.md b/content/ja/integrations/coredns.md index c6b7f9ecd7bc6..5b19268ed0a00 100644 --- a/content/ja/integrations/coredns.md +++ b/content/ja/integrations/coredns.md @@ -43,7 +43,7 @@ draft: false git_integration_title: coredns integration_id: coredns integration_title: CoreDNS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: coredns diff --git a/content/ja/integrations/etcd.md b/content/ja/integrations/etcd.md index ab97e23168f2d..2268136fb1bd4 100644 --- a/content/ja/integrations/etcd.md +++ b/content/ja/integrations/etcd.md @@ -44,7 +44,7 @@ draft: false git_integration_title: etcd integration_id: etcd integration_title: etcd -integration_version: 8.0.0 +integration_version: 8.1.0 is_public: true manifest_version: 2.0.0 name: etcd diff --git a/content/ja/integrations/fluentd.md b/content/ja/integrations/fluentd.md index 1a1cc2eb7245a..0c3f9b681335a 100644 --- a/content/ja/integrations/fluentd.md +++ b/content/ja/integrations/fluentd.md @@ -40,7 +40,7 @@ draft: false git_integration_title: fluentd integration_id: fluentd integration_title: FluentD -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: fluentd diff --git a/content/ja/integrations/go_expvar.md b/content/ja/integrations/go_expvar.md index be15c21cfaac3..825a0cb5ecf2f 100644 --- a/content/ja/integrations/go_expvar.md +++ b/content/ja/integrations/go_expvar.md @@ -31,7 +31,7 @@ draft: false git_integration_title: go_expvar integration_id: go-expvar integration_title: Go-Expvar -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: go_expvar diff --git a/content/ja/integrations/harbor.md b/content/ja/integrations/harbor.md index 8272bb8014133..36c4b29878e49 100644 --- a/content/ja/integrations/harbor.md +++ b/content/ja/integrations/harbor.md @@ -34,7 +34,7 @@ draft: false git_integration_title: harbor integration_id: harbor integration_title: Harbor -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: harbor diff --git a/content/ja/integrations/kong.md b/content/ja/integrations/kong.md index e58cf0c118934..84abd30a5ba28 100644 --- a/content/ja/integrations/kong.md +++ b/content/ja/integrations/kong.md @@ -43,7 +43,7 @@ draft: false git_integration_title: kong integration_id: kong integration_title: Kong -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: kong diff --git a/content/ja/integrations/kube_apiserver_metrics.md b/content/ja/integrations/kube_apiserver_metrics.md index 31afb0dcb2540..e60d28116376e 100644 --- a/content/ja/integrations/kube_apiserver_metrics.md +++ b/content/ja/integrations/kube_apiserver_metrics.md @@ -34,7 +34,7 @@ draft: false git_integration_title: kube_apiserver_metrics integration_id: kube-apiserver-metrics integration_title: Kubernetes API サーバーメトリクス -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: kube_apiserver_metrics diff --git a/content/ja/integrations/nginx.md b/content/ja/integrations/nginx.md index 67e1c56305ceb..ec701e39d4ae3 100644 --- a/content/ja/integrations/nginx.md +++ b/content/ja/integrations/nginx.md @@ -42,7 +42,7 @@ author: categories: - configuration & deployment - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/nginx/README.md display_on_public_website: true @@ -50,7 +50,7 @@ draft: false git_integration_title: nginx integration_id: nginx integration_title: Nginx -integration_version: 8.0.0 +integration_version: 8.1.0 is_public: true manifest_version: 2.0.0 name: nginx diff --git a/content/ja/integrations/silk.md b/content/ja/integrations/silk.md index 48754619cfbd6..35151b3c53fba 100644 --- a/content/ja/integrations/silk.md +++ b/content/ja/integrations/silk.md @@ -37,7 +37,7 @@ draft: false git_integration_title: silk integration_id: silk integration_title: Silk -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: silk diff --git a/content/ja/integrations/singlestore.md b/content/ja/integrations/singlestore.md index 8995f67230145..3a29171d1cbc1 100644 --- a/content/ja/integrations/singlestore.md +++ b/content/ja/integrations/singlestore.md @@ -41,7 +41,7 @@ draft: false git_integration_title: singlestore integration_id: singlestore integration_title: SingleStore -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: singlestore diff --git a/content/ja/integrations/sonarqube.md b/content/ja/integrations/sonarqube.md index da4d71251d679..19b673eef4456 100644 --- a/content/ja/integrations/sonarqube.md +++ b/content/ja/integrations/sonarqube.md @@ -42,7 +42,7 @@ draft: false git_integration_title: sonarqube integration_id: sonarqube integration_title: SonarQube -integration_version: 5.1.0 +integration_version: 5.2.0 is_public: true manifest_version: 2.0.0 name: sonarqube diff --git a/data/partials/platforms.es.yaml b/data/partials/platforms.es.yaml index b5f0fd1b64188..77bfb0b8754f4 100644 --- a/data/partials/platforms.es.yaml +++ b/data/partials/platforms.es.yaml @@ -24,130 +24,130 @@ gs: link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos name: rockylinux - image: platform_almalinux.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=CentOS name: almalinux -- image: platform_fedora.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=fedora +- image: plataforma_fedora.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Fedora name: fedora -- image: platform_suse.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=suse +- image: plataforma_suse.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=SUSE name: suse -- image: platform_aix.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=aix +- image: plataforma_aix.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=aix name: aix -- image: platform_coreos.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=coreos +- image: plataforma_coreos.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=coreos name: coreos -- image: platform_docker.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=docker +- image: plataforma_docker.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Docker name: docker -- image: platform_kubernetes.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes +- image: plataforma_kubernetes.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Kubernetes name: kubernetes -- image: platform_openshift.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=openshift +- image: plataforma_openshift.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=openshift name: openshift -- image: platform_chef.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=chef +- image: plataforma_chef.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=chef name: chef -- image: platform_puppet.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=puppet +- image: plataforma_marioneta.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=puppet name: marioneta -- image: platform_ansible.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=ansible +- image: plataforma_ansible.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=ansible name: ansible -- image: platform_cloud_foundry.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=cloud_foundry +- image: plataforma_nube_fundición.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=cloud_foundry name: cloud_foundry -- image: platform_saltstack.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=saltstack +- image: plataforma_saltstack.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=saltstack name: salt -- image: platform_heroku.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=heroku +- image: plataforma_heroku.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Heroku name: heroku -- image: platform_fromsource.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=source +- image: plataforma_fromsource.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=source name: fuente platforms: - category: Linux - image: platform_aix.png - link: agent/basic_agent_usage/aix/ + image: plataforma_aix.png + link: Agent/uso_agente_basico/aix/ name: aix - category: Linux - image: platform_almalinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_almalinux.png + link: Agent/uso_agente_basico/CentOS/ name: almalinux - category: Linux - image: platform_amazonlinux.png - link: agent/basic_agent_usage/amazonlinux/ + image: plataforma_amazonlinux.png + link: Agent/uso_agente_basico/amazonlinux/ name: amazonlinux - category: configuration_management - image: platform_ansible.png - link: agent/basic_agent_usage/ansible/ + image: plataforma_ansible.png + link: Agent/uso_agente_basico/ansible/ name: ansible - category: Linux - image: platform_centos.png - link: agent/basic_agent_usage/centos/ + image: plataforma_centos.png + link: Agent/uso_agente_basico/CentOS/ name: centos - category: configuration_management - image: platform_chef.png - link: agent/basic_agent_usage/chef/ + image: plataforma_chef.png + link: Agent/uso_agente_basico/chef/ name: chef - category: Linux - image: platform_debian.png - link: agent/basic_agent_usage/deb/ + image: plataforma_debian.png + link: Agent/uso_del_agente_basico/deb/ name: deb - category: cloud_and_container - image: platform_docker.png - link: agent/docker/ + image: plataforma_docker.png + link: Agent/Docker/ name: docker - category: Linux - image: platform_fedora.png - link: agent/basic_agent_usage/fedora/ + image: plataforma_fedora.png + link: Agent/uso_agente_basico/Fedora/ name: fedora - category: cloud_and_container - image: platform_heroku.png - link: agent/basic_agent_usage/heroku/ + image: plataforma_heroku.png + link: Agent/uso_agente_basico/Heroku/ name: heroku - category: cloud_and_container - image: platform_kubernetes.png - link: agent/kubernetes/ + image: plataforma_kubernetes.png + link: Agent/Kubernetes/ name: kubernetes - category: macOS - image: platform_macos.png - link: agent/basic_agent_usage/osx/ + image: plataforma_macos.png + link: Agent/uso_agente_basico/osx/ name: osx - category: Linux - image: platform_oracle.png - link: agent/basic_agent_usage/oracle/ + image: plataforma_oracle.png + link: Agent/uso_agente_basico/oracle/ name: Oracle - category: configuration_management - image: platform_puppet.png - link: agent/basic_agent_usage/puppet/ + image: plataforma_marioneta.png + link: Agent/uso_agente_basico/puppet/ name: puppet - category: Linux - image: platform_redhat.png - link: agent/basic_agent_usage/redhat/ + image: plataforma_redhat.png + link: Agent/uso_agente_basico/redhat/ name: redhat - category: Linux - image: platform_rockylinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_rockylinux.png + link: Agent/uso_agente_basico/CentOS/ name: rockylinux - category: configuration_management - image: platform_saltstack.png - link: agent/basic_agent_usage/saltstack/ + image: plataforma_saltstack.png + link: Agent/uso_agente_basico/saltstack/ name: salt - category: Linux - image: platform_suse.png - link: agent/basic_agent_usage/suse/ + image: plataforma_suse.png + link: Agent/uso_agente_basico/SUSE/ name: suse - category: Linux - image: platform_ubuntu.png - link: agent/basic_agent_usage/ubuntu/ + image: plataforma_ubuntu.png + link: Agent/uso_agente_basico/Ubuntu/ name: ubuntu - category: Windows - image: platform_windows.png - link: agent/basic_agent_usage/windows/ + image: plataforma_windows.png + link: Agent/uso_agente_basico/Windows/ name: windows - category: Windows image: platform_sccm.png From ea0eaaaf3c305ce44328abac28ebb83cc6ab195a Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 13:16:15 +0000 Subject: [PATCH 08/33] Translated file updates --- content/es/integrations/cockroachdb.md | 2 +- content/es/integrations/hazelcast.md | 2 +- content/es/integrations/ibm_was.md | 4 ++-- content/es/integrations/nginx_ingress_controller.md | 4 ++-- content/es/integrations/scylla.md | 4 ++-- content/es/integrations/squid.md | 5 ++--- content/ja/integrations/cisco_aci.md | 2 +- content/ja/integrations/http_check.md | 2 +- content/ja/integrations/riak.md | 2 +- 9 files changed, 13 insertions(+), 14 deletions(-) diff --git a/content/es/integrations/cockroachdb.md b/content/es/integrations/cockroachdb.md index e43da6d4c39c2..3641c66bdc228 100644 --- a/content/es/integrations/cockroachdb.md +++ b/content/es/integrations/cockroachdb.md @@ -38,7 +38,7 @@ draft: false git_integration_title: cockroachdb integration_id: cockroachdb integration_title: CockroachDB -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: cockroachdb diff --git a/content/es/integrations/hazelcast.md b/content/es/integrations/hazelcast.md index 985d2ff393f72..70262ce6dffb9 100644 --- a/content/es/integrations/hazelcast.md +++ b/content/es/integrations/hazelcast.md @@ -37,7 +37,7 @@ draft: false git_integration_title: hazelcast integration_id: hazelcast integration_title: Hazelcast -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: hazelcast diff --git a/content/es/integrations/ibm_was.md b/content/es/integrations/ibm_was.md index e48a929deb94f..5bdfd01f18712 100644 --- a/content/es/integrations/ibm_was.md +++ b/content/es/integrations/ibm_was.md @@ -26,7 +26,7 @@ author: categories: - recopilación de logs - so y sistema -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/ibm_was/README.md display_on_public_website: true @@ -34,7 +34,7 @@ draft: false git_integration_title: ibm_was integration_id: ibm-was integration_title: IBM WAS -integration_version: 3.3.2 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: ibm_was diff --git a/content/es/integrations/nginx_ingress_controller.md b/content/es/integrations/nginx_ingress_controller.md index 8cc8f39a2ca88..ef03e4a5d1656 100644 --- a/content/es/integrations/nginx_ingress_controller.md +++ b/content/es/integrations/nginx_ingress_controller.md @@ -34,7 +34,7 @@ categories: - recopilación de logs - la red - orquestación -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/nginx_ingress_controller/README.md display_on_public_website: true @@ -42,7 +42,7 @@ draft: false git_integration_title: nginx_ingress_controller integration_id: nginx-ingress-controller integration_title: nginx-ingress-controller -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: nginx_ingress_controller diff --git a/content/es/integrations/scylla.md b/content/es/integrations/scylla.md index 9af3abcf2c0d5..519d57e8752bf 100644 --- a/content/es/integrations/scylla.md +++ b/content/es/integrations/scylla.md @@ -37,7 +37,7 @@ draft: false git_integration_title: scylla integration_id: scylla integration_title: Scylla -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: scylla @@ -121,7 +121,7 @@ Para habilitar logs para entornos Kubernetes, consulta [Recopilación de logs de ### Validación -[Ejecuta el subcomando de estado del Agent][8] y busca`scylla``nvml` en la sección **Checks**. +[Ejecuta el subcomando de estado del Agent][8] y busca`scylla` en la sección **Checks**. ## Datos recopilados diff --git a/content/es/integrations/squid.md b/content/es/integrations/squid.md index 078d0553bbf57..663ffb2b1d900 100644 --- a/content/es/integrations/squid.md +++ b/content/es/integrations/squid.md @@ -41,7 +41,7 @@ draft: falso git_integration_title: squid integration_id: squid integration_title: Squid -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: verdadero manifest_version: 2.0.0 name: squid @@ -168,8 +168,7 @@ La recopilación de logs se encuentra deshabilitada de manera predeterminada en [1]: https://docs.datadoghq.com/es/agent/kubernetes/integrations/ [2]: https://docs.datadoghq.com/es/agent/kubernetes/log/?tab=containerinstallation#setup -{{% /tab %}} -{{< /tabs >}} +{{% /tab %}}{{< /tabs >}} ### Validación diff --git a/content/ja/integrations/cisco_aci.md b/content/ja/integrations/cisco_aci.md index 519ea28165116..1f0b337386ba7 100644 --- a/content/ja/integrations/cisco_aci.md +++ b/content/ja/integrations/cisco_aci.md @@ -37,7 +37,7 @@ draft: false git_integration_title: cisco_aci integration_id: cisco-aci integration_title: CiscoACI -integration_version: 4.2.0 +integration_version: 4.3.0 is_public: true manifest_version: 2.0.0 name: cisco_aci diff --git a/content/ja/integrations/http_check.md b/content/ja/integrations/http_check.md index d8a298e7922d5..f7d5ca08286cc 100644 --- a/content/ja/integrations/http_check.md +++ b/content/ja/integrations/http_check.md @@ -29,7 +29,7 @@ draft: false git_integration_title: http_check integration_id: ネットワーク integration_title: HTTP チェック -integration_version: 11.0.0 +integration_version: 11.1.0 is_public: true manifest_version: 2.0.0 name: http_check diff --git a/content/ja/integrations/riak.md b/content/ja/integrations/riak.md index eec6e9ef08aeb..ea9431347a4be 100644 --- a/content/ja/integrations/riak.md +++ b/content/ja/integrations/riak.md @@ -34,7 +34,7 @@ draft: false git_integration_title: riak integration_id: riak integration_title: Riak -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: riak From cc8317441f2246e579a5c2e90015cc29b1c1bc35 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 15:16:10 +0000 Subject: [PATCH 09/33] Translated file updates --- content/es/integrations/eks_fargate.md | 2 +- content/es/integrations/kube_metrics_server.md | 6 +++--- content/ja/integrations/avi_vantage.md | 2 +- content/ja/integrations/azure_iot_edge.md | 2 +- content/ja/integrations/citrix_hypervisor.md | 2 +- content/ja/integrations/external_dns.md | 2 +- content/ja/integrations/kube_scheduler.md | 2 +- content/ja/integrations/marathon.md | 6 +++--- content/ja/integrations/rabbitmq.md | 2 +- content/ja/integrations/spark.md | 2 +- 10 files changed, 14 insertions(+), 14 deletions(-) diff --git a/content/es/integrations/eks_fargate.md b/content/es/integrations/eks_fargate.md index 3617c58b49988..be76c4be35eda 100644 --- a/content/es/integrations/eks_fargate.md +++ b/content/es/integrations/eks_fargate.md @@ -31,7 +31,7 @@ draft: false git_integration_title: eks_fargate integration_id: eks-fargate integration_title: Amazon EKS en AWS Fargate -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: eks_fargate diff --git a/content/es/integrations/kube_metrics_server.md b/content/es/integrations/kube_metrics_server.md index 647a9ccc3ea51..4950cfa1fe44c 100644 --- a/content/es/integrations/kube_metrics_server.md +++ b/content/es/integrations/kube_metrics_server.md @@ -27,7 +27,7 @@ categories: - contenedores - Kubernetes - orquestación -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/kube_metrics_server/README.md display_on_public_website: true @@ -35,7 +35,7 @@ draft: false git_integration_title: kube_metrics_server integration_id: kube-metrics-server integration_title: Servidor de métricas Kubernetes -integration_version: 3.3.1 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: kube_metrics_server @@ -85,7 +85,7 @@ El check de Kube_metrics_server está incluido en el paquete del [Datadog Agent] Para configurar este check para un Agent que se ejecuta en un host, haz lo siguiente: -1. Edita el archivo `kube_metrics_server.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de kube_metrics_server. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo kube_metrics_server.d/conf.yaml][4]. +1. Edita el archivo `kube_metrics_server.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del directorio de configuración del Agent, para empezar a recopilar los datos de rendimiento de kube_metrics_server. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo kube_metrics_server.d/conf.yaml][1]. 2. [Reinicia el Agent][2]. diff --git a/content/ja/integrations/avi_vantage.md b/content/ja/integrations/avi_vantage.md index 56250fad01f21..895a70410858f 100644 --- a/content/ja/integrations/avi_vantage.md +++ b/content/ja/integrations/avi_vantage.md @@ -40,7 +40,7 @@ draft: false git_integration_title: avi_vantage integration_id: avi-vantage integration_title: Avi Vantage -integration_version: 5.1.0 +integration_version: 5.2.0 is_public: true manifest_version: 2.0.0 name: avi_vantage diff --git a/content/ja/integrations/azure_iot_edge.md b/content/ja/integrations/azure_iot_edge.md index 297ecf5447397..bf97426fcad07 100644 --- a/content/ja/integrations/azure_iot_edge.md +++ b/content/ja/integrations/azure_iot_edge.md @@ -41,7 +41,7 @@ draft: false git_integration_title: azure_iot_edge integration_id: azure-iot-edge integration_title: Azure IoT Edge -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: azure_iot_edge diff --git a/content/ja/integrations/citrix_hypervisor.md b/content/ja/integrations/citrix_hypervisor.md index c4f38fb45a9b1..413d7f1dfc41d 100644 --- a/content/ja/integrations/citrix_hypervisor.md +++ b/content/ja/integrations/citrix_hypervisor.md @@ -35,7 +35,7 @@ draft: false git_integration_title: citrix_hypervisor integration_id: citrix-hypervisor integration_title: Citrix Hypervisor -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: citrix_hypervisor diff --git a/content/ja/integrations/external_dns.md b/content/ja/integrations/external_dns.md index 96f39724453e8..f931d5e26d377 100644 --- a/content/ja/integrations/external_dns.md +++ b/content/ja/integrations/external_dns.md @@ -31,7 +31,7 @@ draft: false git_integration_title: external_dns integration_id: external-dns integration_title: 外部 DNS -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: external_dns diff --git a/content/ja/integrations/kube_scheduler.md b/content/ja/integrations/kube_scheduler.md index 5d65a0421c240..d2057b822c90f 100644 --- a/content/ja/integrations/kube_scheduler.md +++ b/content/ja/integrations/kube_scheduler.md @@ -36,7 +36,7 @@ draft: false git_integration_title: kube_scheduler integration_id: kube-scheduler integration_title: Kubernetes Scheduler -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: kube_scheduler diff --git a/content/ja/integrations/marathon.md b/content/ja/integrations/marathon.md index deda30ef97990..b48fe6a71efcf 100644 --- a/content/ja/integrations/marathon.md +++ b/content/ja/integrations/marathon.md @@ -31,7 +31,7 @@ categories: - configuration & deployment - containers - log collection -custom_kind: integration +custom_kind: インテグレーション dependencies: - https://github.com/DataDog/integrations-core/blob/master/marathon/README.md display_on_public_website: true @@ -39,7 +39,7 @@ draft: false git_integration_title: marathon integration_id: marathon integration_title: Marathon -integration_version: 2.3.1 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: marathon @@ -232,4 +232,4 @@ Marathon チェックには、イベントは含まれません。 [1]: https://app.datadoghq.com/account/settings/agent/latest [2]: https://docs.datadoghq.com/ja/agent/guide/agent-commands/#agent-status-and-information -[3]: https://docs.datadoghq.com/ja/help/ +[3]: https://docs.datadoghq.com/ja/help/ \ No newline at end of file diff --git a/content/ja/integrations/rabbitmq.md b/content/ja/integrations/rabbitmq.md index d802905426fc9..a875af27a7b3e 100644 --- a/content/ja/integrations/rabbitmq.md +++ b/content/ja/integrations/rabbitmq.md @@ -49,7 +49,7 @@ draft: false git_integration_title: rabbitmq integration_id: rabbitmq integration_title: RabbitMQ -integration_version: 7.0.0 +integration_version: 7.1.0 is_public: true manifest_version: 2.0.0 name: rabbitmq diff --git a/content/ja/integrations/spark.md b/content/ja/integrations/spark.md index 300a30520fda4..b835c1fe52316 100644 --- a/content/ja/integrations/spark.md +++ b/content/ja/integrations/spark.md @@ -38,7 +38,7 @@ draft: false git_integration_title: spark integration_id: spark integration_title: Spark -integration_version: 6.1.0 +integration_version: 6.2.0 is_public: true manifest_version: 2.0.0 name: spark From 5f742c5539c60bf6b50da04e6484cfc31e66243c Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 17:16:08 +0000 Subject: [PATCH 10/33] Translated file updates --- .../database-for-postgresql.md | 72 +++++++++++++++++++ .../sources/datadog_agent.md | 33 +++++++++ content/ja/integrations/kyototycoon.md | 2 +- content/ja/integrations/lighttpd.md | 2 +- content/ja/integrations/marklogic.md | 2 +- content/ja/integrations/php_fpm.md | 2 +- .../datadog_archives_note.es.md | 2 + 7 files changed, 111 insertions(+), 4 deletions(-) create mode 100644 content/es/cloudcraft/components-azure/database-for-postgresql.md create mode 100644 content/es/observability_pipelines/sources/datadog_agent.md create mode 100644 layouts/shortcodes/observability_pipelines/destination_settings/datadog_archives_note.es.md diff --git a/content/es/cloudcraft/components-azure/database-for-postgresql.md b/content/es/cloudcraft/components-azure/database-for-postgresql.md new file mode 100644 index 0000000000000..e148832e48930 --- /dev/null +++ b/content/es/cloudcraft/components-azure/database-for-postgresql.md @@ -0,0 +1,72 @@ +--- +title: Componente Database for PostgreSQL +--- + +## Información general + +Puedes utilizar el componente Database for PostgreSQL para representar y visualizar bases de datos PostgreSQL desde tu entorno Azure. + +{{< img src="cloudcraft/components-azure/database-for-postgresql/component-database-for-postgresql-diagram.png" alt="Captura de pantalla de un diagrama de Cloudcraft isométrico, que muestra componentes Azure interconectados." responsive="true" style="width:60%;">}} + +## Barra de herramientas + +Utiliza la barra de herramientas para configurar y personalizar el componente. Están disponibles las siguientes opciones: + +- **Color**: Selecciona colores para dar énfasis y rellenar el cuerpo del componente en la vista 3D. +- **Opción de despliegue**: Selecciona el tipo de despliegue para tu base de datos. +- **Nivel**: Selecciona el nivel de rendimiento de tu base de datos. +- **Instancia**: Selecciona el tipo de instancia de tu base de datos. Al cambiar el tipo de instancia se modifican los detalles de hardware que aparecen en la barra de herramientas para reflejar lo que utiliza el hipervisor. +- **Alta disponibilidad**: Selecciona una opción de alta disponibilidad para tu base de datos. Solo está disponible cuando la **opción de despliegue** está configurada como **servidor flexible**. +- **Almacenamiento (GiB)**: Introduce el volumen total de almacenamiento en gibibytes disponible para tu base de datos. + +## API + +Utiliza [la API Cloudcraft][1] para acceder mediante programación y representar tus diagramas de arquitectura como objetos JSON. El siguiente es un ejemplo de objeto JSON de un componente Database for PostgreSQL: + +### Esquema + +```json +{ + "type": "azurepostgresql", + "id": "db7da7f6-9d1a-46df-808c-6979e02d5182", + "region": "northcentralus", + "mapPos": [5,0], + "deploymentOption": "Single", + "tier": "GeneralPurpose", + "instance": "GP_Gen5_2", + "storageMB": 20480, + "haEnabled": false, + "backupRetention": 7, + "color": { + "isometric": null, + "2d": null + }, + "accentColor": { + "isometric": null, + "2d": null + }, + "link": "https://azure.microsoft.com/products/postgresql", + "locked": true +} +``` + +- **type: string**: El tipo de componente. Debe ser una cadena de valor `azurepostgresql` para este componente. +- **id: string, uuid**: El identificador único para el componente. La API utiliza un UUID v4 internamente pero acepta cualquier cadena única. +- **resourceId: string**: El identificador único global para el componente dentro de Azure. +- **region: string**: La región Azure para el componente. La API admite todas las regiones del mundo, excepto China. +- **mapPos: array**: La posición del componente en el plano. La API utiliza un único par de coordenadas X e Y para expresar el posicionamiento. +- **deploymentOption: string**: El tipo de despliegue para la base de datos. Por defecto es `Single`. +- **tier: string**: El nivel de rendimiento de la base de datos. Por defecto es `GeneralPurpose`. +- **instance: string**: El tipo de instancia para la base de datos. Por defecto es `GP_Gen5_2`. +- **storageMB: string**: El volumen total de almacenamiento en megabytes disponible para la base de datos. Por defecto es `20480`. +- **haEnabled: boolean**: Si está habilitada la alta disponibilidad. Por defecto es `false.` +- **color: object**: El color de relleno para el cuerpo del componente. + - **isometric: string**: Un color hexadecimal para el cuerpo del componente en la vista 3D. Por defecto es `#CEE0F5`. + - **2d: string**: Un color hexadecimal para el cuerpo del componente en la vista 2D. Por defecto es `null`. +- **accentColor: object**: El color para dar énfasis al logotipo del componente. + - **isometric: string**: Un color hexadecimal para el logotipo del componente en la vista 3D. Por defecto es `#0078D4`. + - **2d: string**: Un color hexadecimal para el logotipo del componente en la vista 2D. Por defecto es `null`. +- **link: string, uri**: El URI que vincula el componente con otro diagrama o un sitio web externo. Acepta uno de dos formatos, `blueprint://` o `https://`. +- **locked: boolean**: Si se permite cambiar la posición del componente a través de la interfaz web. Por defecto es `false`. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/es/observability_pipelines/sources/datadog_agent.md b/content/es/observability_pipelines/sources/datadog_agent.md new file mode 100644 index 0000000000000..0bcb5998c75c6 --- /dev/null +++ b/content/es/observability_pipelines/sources/datadog_agent.md @@ -0,0 +1,33 @@ +--- +disable_toc: false +title: Fuente del Datadog Agent +--- + +Utiliza la fuente del Datadog Agent de Observability Pipelines para recibir logs de tu Datadog Agent. Selecciona y configura esta fuente cuando [configures un pipeline][1]. + +## Requisitos previos + +{{% observability_pipelines/prerequisites/datadog_agent %}} + +## Configurar la fuente en la interfaz de usuario del pipeline + +{{% observability_pipelines/source_settings/datadog_agent %}} + +## Conectar el Datadog Agent al worker de Observability Pipelines + +Utiliza el archivo de configuración del Agent o el archivo de valores del Helm chart del Agent para conectar el Datadog Agent al worker de Observability Pipelines. + +{{< tabs >}} +{{% tab "Archivo de configuraión del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent %}} + +{{% /tab %}} +{{% tab "Archivo de valores del Helm del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent_kubernetes %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: /es/observability_pipelines/set_up_pipelines/ \ No newline at end of file diff --git a/content/ja/integrations/kyototycoon.md b/content/ja/integrations/kyototycoon.md index 751f47d537e05..8613375d257ec 100644 --- a/content/ja/integrations/kyototycoon.md +++ b/content/ja/integrations/kyototycoon.md @@ -38,7 +38,7 @@ draft: false git_integration_title: kyototycoon integration_id: kyoto-tycoon integration_title: Kyoto Tycoon -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: kyototycoon diff --git a/content/ja/integrations/lighttpd.md b/content/ja/integrations/lighttpd.md index 8666d7217fdc0..7ec0ffc053f53 100644 --- a/content/ja/integrations/lighttpd.md +++ b/content/ja/integrations/lighttpd.md @@ -37,7 +37,7 @@ draft: false git_integration_title: lighttpd integration_id: lighttpd integration_title: Lighttpd -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: lighttpd diff --git a/content/ja/integrations/marklogic.md b/content/ja/integrations/marklogic.md index 1a3ef62101ba9..3e6c3b5ad0ab0 100644 --- a/content/ja/integrations/marklogic.md +++ b/content/ja/integrations/marklogic.md @@ -42,7 +42,7 @@ draft: false git_integration_title: marklogic integration_id: marklogic integration_title: MarkLogic -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: marklogic diff --git a/content/ja/integrations/php_fpm.md b/content/ja/integrations/php_fpm.md index 06776f570e215..d469fcb46c955 100644 --- a/content/ja/integrations/php_fpm.md +++ b/content/ja/integrations/php_fpm.md @@ -45,7 +45,7 @@ draft: false git_integration_title: php_fpm integration_id: php-fpm integration_title: PHP FPM -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: php_fpm diff --git a/layouts/shortcodes/observability_pipelines/destination_settings/datadog_archives_note.es.md b/layouts/shortcodes/observability_pipelines/destination_settings/datadog_archives_note.es.md new file mode 100644 index 0000000000000..57ac4f3745e6d --- /dev/null +++ b/layouts/shortcodes/observability_pipelines/destination_settings/datadog_archives_note.es.md @@ -0,0 +1,2 @@ +
Si el worker está ingiriendo logs que no proceden del Datadog Agent y se envían a un archivo utilizando como destino archivos Datadog de Observability Pipelines, esos logs no se etiquetan con atributos reservados. Además, los logs rehidratados en Datadog no tendrán asignados atributos estándar. Esto significa que cuando rehidrates tus logs en Log Management, podrías perder la telemetría de Datadog, la capacidad de buscar logs fácilmente y las ventajas del etiquetado unificado de servicios si no estructuras y reasignas tus logs en Observability Pipelines antes de enrutarlos a un archivo.

Por ejemplo, digamos que tus syslogs se envían a archivos de Datadog y que esos logs tienen su estado etiquetado como gravedad, en lugar del atributo reservado de estado, y el host etiquetado como host-name, en lugar del atributo reservado hostname. Cuando estos logs se rehidratan en Datadog, el estado de cada log se define como info y ninguno de los logs tiene una etiqueta (tag) hostname. +
\ No newline at end of file From cccfa8255db19cbf12250526948d2af80167bda4 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 19:16:05 +0000 Subject: [PATCH 11/33] Translated file updates --- content/es/integrations/azure_iot_edge.md | 4 +- .../split_logs/datadog_agent.md | 271 ++++++++++++++++++ content/ja/integrations/argo_workflows.md | 2 +- .../ja/integrations/kube_metrics_server.md | 2 +- 4 files changed, 275 insertions(+), 4 deletions(-) create mode 100644 content/es/observability_pipelines/set_up_pipelines/split_logs/datadog_agent.md diff --git a/content/es/integrations/azure_iot_edge.md b/content/es/integrations/azure_iot_edge.md index f9414629e358d..e066cefbbd405 100644 --- a/content/es/integrations/azure_iot_edge.md +++ b/content/es/integrations/azure_iot_edge.md @@ -33,7 +33,7 @@ categories: - iot - recopilación de logs - la red -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/azure_iot_edge/README.md display_on_public_website: true @@ -41,7 +41,7 @@ draft: false git_integration_title: azure_iot_edge integration_id: azure-iot-edge integration_title: Azure IoT Edge -integration_version: 4.2.1 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: azure_iot_edge diff --git a/content/es/observability_pipelines/set_up_pipelines/split_logs/datadog_agent.md b/content/es/observability_pipelines/set_up_pipelines/split_logs/datadog_agent.md new file mode 100644 index 0000000000000..91e23783e78c2 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/split_logs/datadog_agent.md @@ -0,0 +1,271 @@ +--- +aliases: +- /es/observability_pipelines/split_logs/datadog_agent/ +disable_toc: false +title: Dividir logs para el Datadog Agent +--- + +## Información general + +Configura tu Datadog Agent para enviar logs al worker Observability Pipelines y luego procesar y enrutarlos a diferentes destinos en función de tu caso de uso. + +{{% observability_pipelines/use_case_images/split_logs %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) +1. [Conexión del Datadog Agent al worker de Observability Pipelines](#connect-the-datadog-agent-to-the-observability-pipelines-worker) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/datadog_agent %}} + +{{< tabs >}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/prerequisites/splunk_hec_destination_only %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/prerequisites/sumo_logic_destination_only %}} + +{{% /tab %}} +{{< /tabs >}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Split Logs** (Dividir logs) para crear un pipeline nuevo. +1. Selecciona **Datadog Agent** como el origen. + +### Configurar el origen + +{{% observability_pipelines/source_settings/datadog_agent %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Ingresa la dirección del Datadog Agent. El worker de Observability Pipelines escucha en esta dirección y puerto las entradas de logs procedentes del Datadog Agent. Por ejemplo, `0.0.0.0:`. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +## Conectar el Datadog Agent al worker de Observability Pipelines + +Utiliza el archivo de configuración del Agent o el archivo de valores del Helm chart del Agent para conectar el Datadog Agent al worker de Observability Pipelines. + +{{< tabs >}} +{{% tab "Archivo de configuración del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent %}} + +{{% /tab %}} +{{% tab "Archivo de valores del Helm del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent_kubernetes %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/ja/integrations/argo_workflows.md b/content/ja/integrations/argo_workflows.md index d1001a3ca9472..f1f690ac59df0 100644 --- a/content/ja/integrations/argo_workflows.md +++ b/content/ja/integrations/argo_workflows.md @@ -42,7 +42,7 @@ draft: false git_integration_title: argo_workflows integration_id: argo-workflows integration_title: Argo Workflows -integration_version: 2.1.0 +integration_version: 2.2.0 is_public: true manifest_version: 2.0.0 name: argo_workflows diff --git a/content/ja/integrations/kube_metrics_server.md b/content/ja/integrations/kube_metrics_server.md index 38a46c0cf2d74..ac0dc2f6f6943 100644 --- a/content/ja/integrations/kube_metrics_server.md +++ b/content/ja/integrations/kube_metrics_server.md @@ -35,7 +35,7 @@ draft: false git_integration_title: kube_metrics_server integration_id: kube-metrics-server integration_title: Kubernetes Metrics Server -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: kube_metrics_server From dbca0a73371109547e544bbb3ae52d7df01c0743 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 21:16:08 +0000 Subject: [PATCH 12/33] Translated file updates --- content/es/integrations/kyototycoon.md | 149 ++++++++++ content/es/integrations/marathon.md | 235 ++++++++++++++++ .../generate_metrics/datadog_agent.md | 256 ++++++++++++++++++ content/ja/integrations/hazelcast.md | 2 +- content/ja/integrations/scylla.md | 2 +- 5 files changed, 642 insertions(+), 2 deletions(-) create mode 100644 content/es/integrations/kyototycoon.md create mode 100644 content/es/integrations/marathon.md create mode 100644 content/es/observability_pipelines/set_up_pipelines/generate_metrics/datadog_agent.md diff --git a/content/es/integrations/kyototycoon.md b/content/es/integrations/kyototycoon.md new file mode 100644 index 0000000000000..5e2d20bac1502 --- /dev/null +++ b/content/es/integrations/kyototycoon.md @@ -0,0 +1,149 @@ +--- +"app_id": "kyoto-tycoon" +"app_uuid": "5cc7578e-8f8e-43c3-890a-4360581634e7" +"assets": + "dashboards": + "kyototycoon": "assets/dashboards/kyototycoon_dashboard.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "kyototycoon.records" + "metadata_path": "metadata.csv" + "prefix": "kyototycoon." + "process_signatures": + - "ktserver" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "62" + "source_type_name": "Kyoto Tycoon" + "saved_views": + "kyoto-tycoon_processes": "assets/saved_views/kyoto-tycoon_processes.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "data stores" +- "log collection" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/kyototycoon/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "kyototycoon" +"integration_id": "kyoto-tycoon" +"integration_title": "Kyoto Tycoon" +"integration_version": "4.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "kyototycoon" +"public_title": "Kyoto Tycoon" +"short_description": "Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación". +"supported_os": +- "linux" +- "macos" +- "windows" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Supported OS::Linux" + - "Supported OS::macOS" + - "Supported OS::Windows" + - "Category::Almacenes de datos" + - "Category::Recopilación de logs" + - "Offering::Integración" + "configuration": "README.md#Configuración" + "description": "Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación". + "media": [] + "overview": "README.md#Información general" + "support": "README.md#Soporte" + "title": "Kyoto Tycoon" +--- + + + + +## Información general + +El check de Kyoto Tycoon del Agent check realiza un seguimiento de las operaciones get, set, delete y te permite monitorizar los retrasos de replicación. + +## Configuración + +### Instalación + +El check de Kyoto Tycoon está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tus servidores de KyotoTycoon. + +### Configuración + +1. Edita el archivo `kyototycoon.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][2]. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo kyototycoon.d/conf.yaml][3]: + + ```yaml + init_config: + + instances: + ## @param report_url - string - required + ## The report URL should be a URL to the Kyoto Tycoon "report" RPC endpoint. + # + - report_url: http://localhost:1978/rpc/report + ``` + +2. [Reinicia el Agent][4]. + +##### Recopilación de logs + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; habilítala en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Añade este bloque de configuración a tu archivo `kyototycoon.d/conf.yaml` para empezar a recopilar logs de Kyoto Tycoon: + + ```yaml + logs: + - type: file + path: /var/data/ktserver.log + source: kyototycoon + ``` + + Cambia el valor del parámetro `path` en función de tu entorno. Para ver todas las opciones de configuración disponibles, consulta el [ejemplo kyototycoon.d/conf.yaml][3]. + +3. [Reinicia el Agent][4]. + +### Validación + +[Ejecuta el subcomando de estado del Agent][5] y busca `kyototycoon` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "kyototycoon" >}} + + +### Eventos + +El check de Kyoto Tycoon no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "kyototycoon" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][8]. + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[3]: https://github.com/DataDog/integrations-core/blob/master/kyototycoon/datadog_checks/kyototycoon/data/conf.yaml.example +[4]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +[5]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[6]: https://github.com/DataDog/integrations-core/blob/master/kyototycoon/metadata.csv +[7]: https://github.com/DataDog/integrations-core/blob/master/kyototycoon/assets/service_checks.json +[8]: https://docs.datadoghq.com/help/ + diff --git a/content/es/integrations/marathon.md b/content/es/integrations/marathon.md new file mode 100644 index 0000000000000..1e8e347d9cee9 --- /dev/null +++ b/content/es/integrations/marathon.md @@ -0,0 +1,235 @@ +--- +"app_id": "marathon" +"app_uuid": "fe9a038e-3948-4646-9a1c-ea1f1cc59977" +"assets": + "dashboards": + "marathon-overview": "assets/dashboards/marathon-overview_dashboard.json" + "integration": + "auto_install": true + "configuration": + "spec": "assets/configuration/spec.yaml" + "events": + "creates_events": false + "metrics": + "check": "marathon.apps" + "metadata_path": "metadata.csv" + "prefix": "marathon". + "process_signatures": + - "start --master mesos marathon" + "service_checks": + "metadata_path": "assets/service_checks.json" + "source_type_id": !!int "82" + "source_type_name": "Marathon" + "saved_views": + "marathon_processes": "assets/saved_views/marathon_processes.json" +"author": + "homepage": "https://www.datadoghq.com" + "name": "Datadog" + "sales_email": "info@datadoghq.com" + "support_email": "help@datadoghq.com" +"categories": +- "configuration & deployment" +- "containers" +- "log collection" +"custom_kind": "integración" +"dependencies": +- "https://github.com/DataDog/integrations-core/blob/master/marathon/README.md" +"display_on_public_website": true +"draft": false +"git_integration_title": "marathon" +"integration_id": "marathon" +"integration_title": "Marathon" +"integration_version": "4.1.0" +"is_public": true +"manifest_version": "2.0.0" +"name": "marathon" +"public_title": "Marathon" +"short_description": "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más". +"supported_os": +- "linux" +- "macos" +"tile": + "changelog": "CHANGELOG.md" + "classifier_tags": + - "Supported OS::Linux" + - "Supported OS::macOS" + - "Category::Configuración y despliegue" + - "Category::Contenedores" + - "Category::Recopilación de logs" + - "Offering::Integración" + "configuration": "README.md#Configuración" + "description": "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más". + "media": [] + "overview": "README.md#Información general" + "support": "README.md#Soporte" + "title": "Marathon" +--- + + + + +## Información general + +El check de Marathon del Agent te permite hacer lo siguiente: + +- rastrear el estado de cada aplicación: consulta la configuración de la memoria, el disco, la CPU y las instancias; monitorizar el número de tareas en buen estado y en mal estado; +- monitorizar el número de aplicaciones puestas en cola y el número de despliegues. + +## Configuración + +### Instalación + +El check de Marathon está incluido en el paquete del [Datadog Agent][1], por lo que no necesitas instalar nada más en tu servidor. + +### Configuración + +Sigue las instrucciones de abajo para configurar este check para un Agent que se ejecuta en un host. En el caso de entornos en contenedores, consulta la sección [Contenedores](#containerized). + +{{< tabs >}} +{{% tab "Host" %}} + +#### Host + +Para configurar este check para un Agent que se ejecuta en un host, haz lo siguiente: + +##### Recopilación de métricas + +1. Edita el archivo `marathon.d/conf.yaml`, que se encuentra en la carpeta `conf.d/` en la raíz del [directorio de configuración del Agent][1]. Consulta el [archivo de ejemplo marathon.d/conf.yaml][2] para conocer todas las opciones de configuración disponibles: + + ```yaml + init_config: + + instances: + # the API endpoint of your Marathon master; required + - url: "https://:" + # if your Marathon master requires ACS auth + # acs_url: https://: + + # the username for Marathon API or ACS token authentication + username: "" + + # the password for Marathon API or ACS token authentication + password: "" + ``` + + La función de `username` y `password` depende de si configuras la `acs_url` o no. Si lo haces, el Agent los utiliza para solicitar un token de autenticación a ACS, que luego utiliza para autenticarse en la API de Marathon. De lo contrario, el Agent utiliza `username` y `password` para autenticarse directamente en la API de Marathon. + +2. [Reinicia el Agent][3]. + +##### Recopilación de logs + +_Disponible para las versiones del Agent a partir de la 6.0_ + +1. La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent; habilítala en el archivo `datadog.yaml`: + + ```yaml + logs_enabled: true + ``` + +2. Dado que Marathon utiliza logback, puedes especificar un formato de logs personalizado. Con Datadog, se admiten dos formatos: el predeterminado que proporciona Marathon y el formato recomendado de Datadog. Añade un apéndice de archivo a tu configuración como en el siguiente ejemplo y reemplaza `$PATTERN$` por el formato que hayas seleccionado: + + - Configuración predeterminada de Marathon: `[%date] %-5level %message \(%logger:%thread\)%n` + - Configuración recomendada de Datadog: `%d{yyyy-MM-dd HH:mm:ss.SSS} [%thread] %-5level %logger{36} - %msg%n` + + ```xml + + + + + + + [%date] %-5level %message \(%logger:%thread\)%n + + + + + 1024 + + + /var/log/marathon.log + true + + true + + $PATTERN$ + + + + + + + + ``` + +3. Añade este bloque de configuración a tu archivo `marathon.d/conf.yaml` para empezar a recopilar logs de Marathon: + + ```yaml + logs: + - type: file + path: /var/log/marathon.log + source: marathon + service: "" + ``` + +4. [Reinicia el Agent][3]. + +[1]: https://docs.datadoghq.com/agent/guide/agent-configuration-files/#agent-configuration-directory +[2]: https://github.com/DataDog/integrations-core/blob/master/marathon/datadog_checks/marathon/data/conf.yaml.example +[3]: https://docs.datadoghq.com/agent/guide/agent-commands/#start-stop-and-restart-the-agent +{{% /tab %}} +{{% tab "Contenedorizado" %}} + +#### Contenedores + +En el caso de los entornos en contenedores, consulta las [Plantillas de integración de Autodiscovery][1] para obtener orientación sobre la aplicación de los parámetros que se indican abajo. + +##### Recopilación de métricas + +| Parámetro | Valor | +| -------------------- | -------------------------------------- | +| `` | `marathon` | +| `` | en blanco o `{}` | +| `` | `{"url": "https://%%host%%:%%port%%"}` | + +##### Recopilación de logs + +_Disponible para las versiones del Agent a partir de la 6.0_ + +La recopilación de logs se encuentra deshabilitada de manera predeterminada en el Datadog Agent. Para habilitarla, consulta [Recopilación de logs de Kubernetes][2]. + +| Parámetro | Valor | +| -------------- | ----------------------------------------------------- | +| `` | `{"source": "marathon", "service": ""}` | + +[1]: https://docs.datadoghq.com/agent/kubernetes/integrations/ +[2]: https://docs.datadoghq.com/agent/kubernetes/log/ +{{% /tab %}} +{{< /tabs >}} + +### Validación + +[Ejecuta el subcomando de estado del Agent][2] y busca `marathon` en la sección Checks. + +## Datos recopilados + +### Métricas +{{< get-metrics-from-git "marathon" >}} + + +### Eventos + +El check de Marathon no incluye eventos. + +### Checks de servicio +{{< get-service-checks-from-git "marathon" >}} + + +## Solucionar problemas + +¿Necesitas ayuda? Ponte en contacto con el [servicio de asistencia de Datadog][3]. + + + +[1]: https://app.datadoghq.com/account/settings/agent/latest +[2]: https://docs.datadoghq.com/agent/guide/agent-commands/#agent-status-and-information +[3]: https://docs.datadoghq.com/help/ diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/datadog_agent.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/datadog_agent.md new file mode 100644 index 0000000000000..fdd96bbd0d706 --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/datadog_agent.md @@ -0,0 +1,256 @@ +--- +disable_toc: false +title: Generar métricas para el Datadog Agent +--- + +## Información general + +Configura el Datadog Agent para enviar los logs al worker de Observability Pipelines para que puedas generar métricas a partir de esos logs. + +{{% observability_pipelines/use_case_images/generate_metrics %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) +1. [Conexión del Datadog Agent al worker de Observability Pipelines](#connect-the-datadog-agent-to-the-observability-pipelines-worker) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/datadog_agent %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Generate Metrics** (Generar métricas) para crear un pipeline nuevo. +1. Selecciona **Datadog Agent** como el origen. + +### Configurar el origen + +{{% observability_pipelines/source_settings/datadog_agent %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Ingresa la dirección del Datadog Agent. El worker de Observability Pipelines escucha en esta dirección y puerto las entradas de logs procedentes del Datadog Agent. Por ejemplo, `0.0.0.0:`. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +## Conectar el Datadog Agent al worker de Observability Pipelines + +Utiliza el archivo de configuración del Agent o el archivo de valores del Helm chart del Agent para conectar el Datadog Agent al worker de Observability Pipelines. + +{{< tabs >}} +{{% tab "Archivo de configuración del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent %}} + +{{% /tab %}} +{{% tab "Archivo de valores del Helm del Agent" %}} + +{{% observability_pipelines/log_source_configuration/datadog_agent_kubernetes %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/ja/integrations/hazelcast.md b/content/ja/integrations/hazelcast.md index 835cc40a5ce10..9fd929f0fc4f8 100644 --- a/content/ja/integrations/hazelcast.md +++ b/content/ja/integrations/hazelcast.md @@ -37,7 +37,7 @@ draft: false git_integration_title: hazelcast integration_id: hazelcast integration_title: Hazelcast -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: hazelcast diff --git a/content/ja/integrations/scylla.md b/content/ja/integrations/scylla.md index b3444cb1862c2..24e37001ba494 100644 --- a/content/ja/integrations/scylla.md +++ b/content/ja/integrations/scylla.md @@ -37,7 +37,7 @@ draft: false git_integration_title: Scylla integration_id: Scylla integration_title: Scylla -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: Scylla From 08816595783f790d0b6aab22df8bc0f03a52493e Mon Sep 17 00:00:00 2001 From: guacbot Date: Sat, 18 Jan 2025 23:16:03 +0000 Subject: [PATCH 13/33] Translated file updates --- content/es/integrations/aerospike.md | 2 +- content/es/integrations/sap_hana.md | 2 +- content/ja/integrations/ambari.md | 2 +- content/ko/integrations/crio.md | 11 ++++++----- 4 files changed, 9 insertions(+), 8 deletions(-) diff --git a/content/es/integrations/aerospike.md b/content/es/integrations/aerospike.md index aaa1bfd04d6ec..e3fe56ed1b31e 100644 --- a/content/es/integrations/aerospike.md +++ b/content/es/integrations/aerospike.md @@ -36,7 +36,7 @@ draft: false git_integration_title: aerospike integration_id: aerospike integration_title: Aerospike -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: aerospike diff --git a/content/es/integrations/sap_hana.md b/content/es/integrations/sap_hana.md index 1563b0e167e0b..f667281b580e9 100644 --- a/content/es/integrations/sap_hana.md +++ b/content/es/integrations/sap_hana.md @@ -34,7 +34,7 @@ draft: false git_integration_title: sap_hana integration_id: sap-hana integration_title: SAP HANA -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: sap_hana diff --git a/content/ja/integrations/ambari.md b/content/ja/integrations/ambari.md index 147f8d5b3ce8a..1d0442d62bc4d 100644 --- a/content/ja/integrations/ambari.md +++ b/content/ja/integrations/ambari.md @@ -34,7 +34,7 @@ draft: false git_integration_title: ambari integration_id: ambari integration_title: Ambari -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: ambari diff --git a/content/ko/integrations/crio.md b/content/ko/integrations/crio.md index d841e5f09a182..a9bdc5c9b45bf 100644 --- a/content/ko/integrations/crio.md +++ b/content/ko/integrations/crio.md @@ -33,7 +33,7 @@ draft: false git_integration_title: crio integration_id: cri-o integration_title: CRI-O -integration_version: 2.6.1 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: crio @@ -50,6 +50,7 @@ tile: - Supported OS::macOS - Supported OS::Windows - Category::Containers + - 제공::통합 configuration: README.md#Setup description: Datadog로 CRI-O 메트릭을 모두 추적하기 media: [] @@ -71,17 +72,17 @@ tile: 이 통합의 경우 활성화된 메트릭이 `127.0.0.1:9090/metrics`에 노출되어 있을 때 기본적으로 비활성화되어 있는 CRI-O `--enable-metrics ` 옵션이 필요합니다. -### 설정 +### 구성 1. 에이전트 구성 디렉터리의 루트 수준에 있는 `conf.d/` 폴더에서 `crio.d/conf.yaml` 파일을 편집해 CRI-O 성능 데이터 수집을 시작하세요. 사용할 수 있는 구성 옵션을 모두 보려면 [sample crio.d/conf.yaml][2]을 참고하세요. -2. [Restart the Agent][3]. +2. [에이전트를 재시작][3]하세요. ### 검증 -[에이전트 상태 하위 명령을 실행하고][4] 점검 섹션 아래에서 `crio`를 찾으세요. +[에이전트 상태 하위 명령을 실행하고][4] Checks 섹션 아래에서 `crio`를 찾으세요. -## 수집한 데이터 +## 수집한 데이터 CRI-O는 런타임 운영 횟수와 대기 시간 메트릭을 수집합니다. Datadog-CRI-O 통합은 CRI-O golang 이진수 자체의 메모리 사용량과 CPU를 수집합니다. From 03faffd5799b9ef06b28fcf5d45e8095e468db3c Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 01:16:09 +0000 Subject: [PATCH 14/33] Translated file updates --- content/es/integrations/argo_rollouts.md | 2 +- content/es/integrations/druid.md | 4 +- .../calculated_fields/expression_language.md | 334 ++++++++++++++++++ content/ja/integrations/haproxy.md | 2 +- 4 files changed, 338 insertions(+), 4 deletions(-) create mode 100644 content/es/logs/explorer/calculated_fields/expression_language.md diff --git a/content/es/integrations/argo_rollouts.md b/content/es/integrations/argo_rollouts.md index 059058a61fde8..23f72abea5bf5 100644 --- a/content/es/integrations/argo_rollouts.md +++ b/content/es/integrations/argo_rollouts.md @@ -43,7 +43,7 @@ draft: false git_integration_title: argo_rollouts integration_id: argo-rollouts integration_title: Argo Rollouts -integration_version: 2.1.0 +integration_version: 2.2.0 is_public: true manifest_version: 2.0.0 name: argo_rollouts diff --git a/content/es/integrations/druid.md b/content/es/integrations/druid.md index 84a3739977b46..0c593460207cf 100644 --- a/content/es/integrations/druid.md +++ b/content/es/integrations/druid.md @@ -27,7 +27,7 @@ categories: - almacenamiento en caché - almacenes de datos - recopilación de logs -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/druid/README.md display_on_public_website: true @@ -35,7 +35,7 @@ draft: false git_integration_title: druid integration_id: druid integration_title: Druid -integration_version: 4.0.0 +integration_version: 4.1.0 is_public: true manifest_version: 2.0.0 name: druida diff --git a/content/es/logs/explorer/calculated_fields/expression_language.md b/content/es/logs/explorer/calculated_fields/expression_language.md new file mode 100644 index 0000000000000..a1e8897de0f1f --- /dev/null +++ b/content/es/logs/explorer/calculated_fields/expression_language.md @@ -0,0 +1,334 @@ +--- +disable_toc: false +further_reading: +- link: /logs/explorer/calculated_fields/ + tag: Documentación + text: Campos calculados +title: Lenguaje de expresión de campos calculados +--- + +## Sintaxis básica y constructos lingüísticos + +| Constructo | Sintaxis y notación | +| --------------------------------------------------------------------------| ------------------------------------------------------------------------------------------------------------------------------------ | +| Atributo reservado o etiqueta denominada `tag` | `tag` (no requiere prefijo) | +| Atributo denominado `attr` | `@attr` (utiliza un prefijo `@` ) | +| Campo calculado denominado `field` | `#field` (utiliza el prefijo `#` ) | +| Cadena literal (comillas)
Por ejemplo, `text` o `Quoted "text"`. | `"text"`
`"Quoted \"text\""`
( Se aplica la sintaxis de búsqueda de logs)| +| Literal numérico (número)
Por ejemplo, `ten`. | `10` | +| Función denominada `func` con los parámetros `x` y `y` | `func(x, y)` | +| Operador
Por ejemplo, un operador binario `*` con operandos `x` y `y`. | `x*y` | + +## Operadores + +Los operadores disponibles por orden de precedencia: + +| Operador | Descripción | +|----------|-------------| +| `()` | Una agrupación o llamada de función | +| `!`, `NOT`, `-` | Una negación lógica o aritmética | +| `^`, `%` | Exponenciación, módulo| +| `*`, `/` | Multiplicación, división| +| `+`, `-` | Suma, resta | +| `<`, `<=`, `>`, `>=` | Menor que, menor o igual que, mayor que, mayor o igual que | +| `==`, `!=` | Coincide, no coincide | +| `&&`, `AND` | AND lógico | +| `\|\|`, `O | OR lógico | + +## Funciones + +Las funciones disponibles se clasifican de la siguiente manera: +- [Aritmética](#arithmetic) +- [Cadena](#string) +- [Lógico](#logical) + + +### Aritmética + +

abs(num value)

+ +Devuelve el valor absoluto de un número. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene los siguientes atributos:
- `@client_latency` = 2
- `@server_latency` = 3 | `#discrepancy = abs(@client_latency - @server_latency)` | `#discrepancy` = 1 | + +
+ + +

ceil(num value)

+ +Redondea el número al entero más próximo. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@value` = 2.2 | `#rounded_up = ceil(@value)` | `#rounded_up` = 3 | + +
+ + +

floor(num value)

+ +Redondea el número al entero más próximo. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@value` = 9.99 | `#rounded_down = floor(@value)` | `#rounded_down` = 9 | + +
+ + +

max(num value, [ num value, ...])

+ +Encuentra el valor máximo entre un conjunto de números. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@CPU_temperatures` = [-1, 1, 5, 5] | `#highest_temp = max(@CPU_temperatures)` | `#highest_temp` = 5 | + +
+ + +

min(num value, [num value, ...])

+ +Encuentra el valor mínimo entre un conjunto de números. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@CPU_temperatures` = [-1, 1, 5, 5] | `#lowest_temp = min(@CPU_temperatures)` | `#lowest_temp` = -1 | + +
+ + +

round(num value, int precision)

+ +Redondea un número. Opcionalmente, define cuántos decimales mantener. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@value` = -1234.01 | `#rounded_to_tens = round(@value, -1)` | `#rounded_to_tens` = -1230 | + +
+ +--- + +### Cadena + +

concat(str string [str string, expr value, ...])

+ +Combina varios valores en una sola cadena. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene los siguientes atributos:
- `@city` = "Paris"
- `@country` = "France" | `#region = concat(@city, ", ", @country)` | `#region` = "Paris, France" | + +
+ + +

lower(str string)

+ +Convierte la cadena a minúsculas. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@first_name` = "Bob" | `#lower_name = lower(@first_name)` | `#lower_name` = "bob" | + +
+ + +

left(str string, int num_chars)

+ +Extrae un fragmento de texto del principio de una cadena. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@price` = "USD10.50" | `#currency = left(@price, 3)` | `#currency` = "USD" | + +
+ + +

proper(str string)

+ +Convierte la cadena a mayúsculas o minúsculas. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@address` = "123 main st" | `#formatted_address = proper(@address)` | `#formatted_address` = "123 Main St" | + +
+ + +

split_before(str string, str separator, int occurrence)

+ +Extrae el fragmento de texto que precede a un determinado patrón en una cadena. + +
+Ejemplo + + + + + + + + + + + + + + + + +
EjemploFórmulaResultado
Un evento de log tiene el siguiente atributo:
@url = "www.example.com/path/to/split"
#url_extraction = split_before(@url, "/", 1)#url_extraction = "www.example.com/path"
#url_extraction = split_before(@url, "/", 2)#url_extraction = "www.example.com/path/to"
+ +
+ + +

split_after(str string, str separator, int occurrence)

+ +Extrae el fragmento de texto que sigue un determinado patrón en una cadena. + +
+Ejemplo + + + + + + + + + + + + + + +
EjemploFórmulaResultado
Un evento de log tiene el siguiente atributo:
@url = "www.example.com/path/to/split"
#url_extraction = split_after(@url, "/", 0)#url_extraction = "path/to/split"
#url_extraction = split_after(@url, "/", 1)#url_extraction = "to/split" +
+ +
+ + +

substring(str string, int start, int length)

+ +Extrae un fragmento de texto del centro de una cadena. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@price` = "USD10.50" | `#dollar_value = substring(@price, 2, 2)` | `#dollar_value` = "10" | + + +
+ + +

right(str string, int num_chars)

+ +Extrae un fragmento de texto del final de una cadena. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo:
`@price` = "USD10.50" | `#cent_value = right(@price, 2)` | `#cent_value` = "50" | + +
+ + +

textjoin(str delimiter, bool ignore_empty, str string [str string, expr value, ...])

+ +Combina varios valores en una sola cadena con un delimitador intermedio. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene los siguientes atributos:
- `@city` = "Paris"
- `@country` = "France" | `#region = textjoin(", ", "false", @city, @country)` | `#region` = "Paris, France" | + +
+ + +

upper(str string)

+ +Convierte la cadena a mayúsculas. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene el siguiente atributo: `@first_name` = "Bob" | `#upper_name = upper(@first_name)` | `#upper_name` = "BOB" | + +
+ +--- + +### Lógico + +

if(expr condition, expr if_true, expr if_false)

+ +Evalúa una condición y devuelve un valor en consecuencia. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene los siguientes atributos:
- `@location` = "Paris, France"
- `@home` = "New York, USA" | `#abroad = if(@location == @home, "false", "true")` | `#abroad` = "true" | + +
+ + +

is_null(expr value)

+ +Comprueba si un atributo o expresión es nulo. + +
+Ejemplo + +| Ejemplo | Fórmula | Resultado | +|----------|-------------|---------| +| Un evento de log tiene los siguientes atributos:
- `@users_online` = 5
- `@max_capacity` = 0 | `is_null(@users_online / @max_capacity)` | "true" | + +
+ + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} \ No newline at end of file diff --git a/content/ja/integrations/haproxy.md b/content/ja/integrations/haproxy.md index c77dc47d90160..4793306037053 100644 --- a/content/ja/integrations/haproxy.md +++ b/content/ja/integrations/haproxy.md @@ -61,7 +61,7 @@ draft: false git_integration_title: haproxy integration_id: haproxy integration_title: HAProxy -integration_version: 7.0.0 +integration_version: 7.1.0 is_public: true manifest_version: 2.0.0 name: haproxy From c46b2fd94b6c384c2c8cbf3b6c83874985881bfe Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 03:16:05 +0000 Subject: [PATCH 15/33] Translated file updates --- content/es/integrations/cloud_foundry_api.md | 2 +- content/ja/integrations/cockroachdb.md | 2 +- content/ja/integrations/envoy.md | 2 +- 3 files changed, 3 insertions(+), 3 deletions(-) diff --git a/content/es/integrations/cloud_foundry_api.md b/content/es/integrations/cloud_foundry_api.md index 769dbb7864d3a..a7d639e5fac23 100644 --- a/content/es/integrations/cloud_foundry_api.md +++ b/content/es/integrations/cloud_foundry_api.md @@ -30,7 +30,7 @@ draft: false git_integration_title: cloud_foundry_api integration_id: cloud-foundry-api integration_title: API de Cloud Foundry -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: cloud_foundry_api diff --git a/content/ja/integrations/cockroachdb.md b/content/ja/integrations/cockroachdb.md index ae5ae05a0f8bf..167c3eafacf10 100644 --- a/content/ja/integrations/cockroachdb.md +++ b/content/ja/integrations/cockroachdb.md @@ -38,7 +38,7 @@ draft: false git_integration_title: cockroachdb integration_id: cockroachdb integration_title: CockroachDB -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: cockroachdb diff --git a/content/ja/integrations/envoy.md b/content/ja/integrations/envoy.md index 4da2ef9e7848c..122c892e02cc4 100644 --- a/content/ja/integrations/envoy.md +++ b/content/ja/integrations/envoy.md @@ -45,7 +45,7 @@ draft: false git_integration_title: envoy integration_id: envoy integration_title: Envoy -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: envoy From 63cc9b5f650606aeb41d724b4ccecb8723a954cd Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 05:16:04 +0000 Subject: [PATCH 16/33] Translated file updates --- content/es/integrations/ambari.md | 4 ++-- content/es/integrations/harbor.md | 2 +- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/content/es/integrations/ambari.md b/content/es/integrations/ambari.md index 2b0df7074eb3d..b3953558d502e 100644 --- a/content/es/integrations/ambari.md +++ b/content/es/integrations/ambari.md @@ -26,7 +26,7 @@ author: categories: - recopilación de logs - la red -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/ambari/README.md display_on_public_website: true @@ -34,7 +34,7 @@ draft: false git_integration_title: ambari integration_id: ambari integration_title: Ambari -integration_version: 6.0.0 +integration_version: 6.1.0 is_public: true manifest_version: 2.0.0 name: ambari diff --git a/content/es/integrations/harbor.md b/content/es/integrations/harbor.md index 7967219ae8bcf..72e4bb926feec 100644 --- a/content/es/integrations/harbor.md +++ b/content/es/integrations/harbor.md @@ -34,7 +34,7 @@ draft: false git_integration_title: harbor integration_id: harbor integration_title: Harbor -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: harbor From 3ccd2f04afc5a91aad564c26457f3df441364156 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 07:16:01 +0000 Subject: [PATCH 17/33] Translated file updates --- .../administrators_guide/getting_started.md | 131 ++++++++++++++++++ content/ja/integrations/cloud_foundry_api.md | 2 +- .../ja/integrations/datadog_cluster_agent.md | 2 +- 3 files changed, 133 insertions(+), 2 deletions(-) create mode 100644 content/es/administrators_guide/getting_started.md diff --git a/content/es/administrators_guide/getting_started.md b/content/es/administrators_guide/getting_started.md new file mode 100644 index 0000000000000..adb2337167d44 --- /dev/null +++ b/content/es/administrators_guide/getting_started.md @@ -0,0 +1,131 @@ +--- +description: Aprende estrategias para empezar a utilizar tu nueva instalación de Datadog. +further_reading: +- link: /getting_started/support/ + tag: Documentación + text: Empezando con el soporte técnico de Datadog +title: Empezando +--- + +## Información general + +Esta guía Empezando te ofrece estrategias para implementar eficazmente Datadog en tu organización. Explora los recursos de ayuda, los cursos del Centro de aprendizaje para ampliar tus conocimientos y las instrucciones para configurar un entorno de prueba. + +## Obtener ayuda + +### Recursos de autoservicio + +A medida que avances en esta guía, puedes consultar los siguientes recursos de autoservicio: + +* Cursos de [formación de Datadog](#learn-datadog-basics). +* La [documentación][16] de Datadog, especialmente las páginas [Empezando][17], para familiarizarte aún más con la plataforma. +* La [interfaz de usuario de Datadog][18], que proporciona ayuda en contexto, información sobre campos específicos de configuración, notas de versión y otros recursos, haz clic en el icono `"?"` en toda la aplicación, o en la parte inferior de navegación del producto. + +{{< img src="/administrators_guide/help_center.png" alt="Captura de pantalla del centro de ayuda en la interfaz de usuario de Datadog" style="width:90%;">}} + +### Presentar un tique de soporte + +Para obtener ayuda cuando te encuentres con un problema: + +* [**Soporte de Datadog**][20]: disponible para ayudarte con problemas difíciles, guiar tu instalación, traducir problemas a condiciones locales, identificar errores y loguear solicitudes de características. +* [**Flare del Datadog Agent**][21]: esta herramienta de CLI crea automáticamente un nuevo tique de soporte y envía un archivo comprimido con los archivos de log pertinentes redactados, los ajustes del nivel de depuración y las configuraciones locales al soporte de Datadog, sin necesidad de iniciar sesión. Para obtener información sobre cómo utilizar y enviar el flare al soporte de Datadog, consulta [envío de un flare][21]. +* [Automatización de flotas**][5]: permite la generación remota de flares desde la interfaz de usuario de la plataforma. + +## Aprender los conceptos básicos de Datadog + +Ponte al día con las partes de Datadog que son más importantes para tu caso de uso. Empieza por inscribirte en nuestros cursos gratuitos del [Centro de formación][1]. Incluye los siguientes cursos a tus flujos de trabajo de incorporación: + +**Empezando**: +{{< whatsnext desc=" " >}} + {{< nextlink href="https://learn.datadoghq.com/courses/datadog-foundation" >}}Fundación de Datadog{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/tagging-best-practices" >}}Prácticas recomendadas de etiquetado{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/managing-service-catalog" >}}Gestión del Catálogo de servicios{{< /nextlink >}} +{{< /whatsnext >}} + +**Administradores**: +{{< whatsnext desc=" " >}} + {{< nextlink href="https://learn.datadoghq.com/courses/agent-on-host" >}}El Agent en un host{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/monitoring-k8s-cluster-agent" >}}Monitorización de un clúster de Kubernetes{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dd-api-automation-iac" >}}API de Datadog: Automatización e infraestructura como código{{< /nextlink >}} +{{< /whatsnext >}} + +**Interfaz de usuario**: +{{< whatsnext desc=" " >}} + {{< nextlink href="https://learn.datadoghq.com/courses/intro-dashboards" >}}Introducción a dashboards{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dashboard-graph-widgets" >}}Detección de widgets de gráficos{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dashboards-slos" >}}Uso de dashboards y SLOs{{< /nextlink >}} +{{< /whatsnext >}} + +**Ingenieros de fiabilidad del sitio**: +{{< whatsnext desc=" " >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dd-101-sre" >}}Datadog 101: ingeniero de fiabilidad del sitio{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/apm-monitors-and-alerting" >}}Monitores y alertas de APM{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/core-web-vitals-lab" >}}Uso de Datadog RUM para rastrear Core Web Vitals{{< /nextlink >}} +{{< /whatsnext >}} + +**Desarrolladores**: +{{< whatsnext desc=" " >}} + {{< nextlink href="https://learn.datadoghq.com/courses/apm-java-host" >}}Configuración de APM para aplicaciones de Java{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/dd-101-dev" >}}Datadog 101: desarrollador{{< /nextlink >}} + {{< nextlink href="https://learn.datadoghq.com/courses/tracking-errors-rum-javascript" >}}Seguimiento de errores con RUM para aplicaciones web de javascript{{< /nextlink >}} +{{< /whatsnext >}} + +## Crear un entorno de test + +Después de completar algunos cursos, aplica lo que has aprendido a tus condiciones locales. Instala y experimenta con Datadog en un sandbox de bajo riesgo, para familiarizarte con el entorno. Crea un entorno sencillo y accesible para desarrollar tu configuración de monitorización antes de una instalación más amplia. + +### Configuración de tu entorno de test + +#### En la aplicación + +La [interfaz de usuario de Datadog][18] es el mejor lugar para empezar a crear tus entornos de test. La plataforma ofrece asistencia de configuración, analizadores automáticos de datos en tiempo real, sugerencias contextuales y muchas otras herramientas. La interfaz de usuario de Datadog proporciona recursos útiles para completar algunas de estas tareas. + +Algunos ejemplos son: + +* Crea un [test de Synthetic][14] para empezar a probar las transacciones empresariales críticas en tus aplicaciones. +* Crea unos [Objetivos de nivel de servicio (SLOs)][15] para definir los objetivos de rendimiento de la aplicación. +* Revisa la página de [Configuración del servicio de APM][9] y sigue las instrucciones paso a paso para comenzar a instrumentar tus servicios. +* Configura y prueba [Log Pipelines][8] para averiguar cómo te gustaría ingerir diferentes conjuntos de logs procedentes de infraestructura y aplicaciones. +* Revisa la página [Plantillas de monitor][10] para empezar a añadir algunas alertas en tu entorno de test. + +#### Plantillas de configuración del Agent host + +El [Datadog Agent][2] es de código abierto y está publicado en GitHub. El repositorio de GitHub del Agent es un recurso útil para consultar plantillas y especificaciones de configuración que te ayudarán a crear tu entorno. + +He aquí algunos ejemplos: + +* [Plantilla de configuración del Agent][3] +* [Especificaciones de configuración de la integración][4] +* [Automatización de flotas][5] + +## Próximos pasos + +Para crear con éxito una nueva instalación de Datadog, revisa la página del [plan][11]. Aprenderás a crear un ejercicio de alcance, a configurar el [etiquetado de recursos][12], a conocer las prácticas recomendadas de productos, a añadir más productos y a optimizar la recopilación de datos para asegurar una instalación sin problemas. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + + +[1]: https://learn.datadoghq.com/ +[2]: https://github.com/DataDog/datadog-agent +[3]: https://github.com/DataDog/datadog-agent/blob/main/pkg/config/config_template.yaml +[4]: https://github.com/DataDog/integrations-core +[5]: https://app.datadoghq.com/fleet +[6]: /es/getting_started/tagging/unified_service_tagging/ +[7]: /es/getting_started/tagging/ +[8]: https://app.datadoghq.com/logs/pipelines/pipeline/add +[9]: https://app.datadoghq.com/apm/service-setup +[10]: https://app.datadoghq.com/monitors/recommended +[11]: /es/administrators_guide/plan +[12]: /es/administrators_guide/plan/#resource-tagging +[13]: https://github.com/DataDog/datadog-agent/tree/main/examples +[14]: https://app.datadoghq.com/synthetics/tests +[15]: https://app.datadoghq.com/slo/manage +[16]: https://docs.datadoghq.com +[17]: /es/getting_started +[18]: https://app.datadoghq.com +[19]: /es/bits_ai/ +[20]: /es/help +[21]: /es/agent/troubleshooting/send_a_flare/?tab=agent \ No newline at end of file diff --git a/content/ja/integrations/cloud_foundry_api.md b/content/ja/integrations/cloud_foundry_api.md index 86c8ec9015d05..c180aa036c834 100644 --- a/content/ja/integrations/cloud_foundry_api.md +++ b/content/ja/integrations/cloud_foundry_api.md @@ -30,7 +30,7 @@ draft: false git_integration_title: cloud_foundry_api integration_id: cloud-foundry-api integration_title: Cloud Foundry API -integration_version: 5.0.0 +integration_version: 5.1.0 is_public: true manifest_version: 2.0.0 name: cloud_foundry_api diff --git a/content/ja/integrations/datadog_cluster_agent.md b/content/ja/integrations/datadog_cluster_agent.md index afd4eb47d91d0..fc89f9d22e9eb 100644 --- a/content/ja/integrations/datadog_cluster_agent.md +++ b/content/ja/integrations/datadog_cluster_agent.md @@ -33,7 +33,7 @@ draft: false git_integration_title: datadog_cluster_agent integration_id: datadog-cluster-agent integration_title: Datadog Cluster Agent -integration_version: 5.2.0 +integration_version: 5.3.0 is_public: true manifest_version: 2.0.0 name: datadog_cluster_agent From 53a692f5daf52da5afaebd0f66fc1858501d6dba Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 09:16:04 +0000 Subject: [PATCH 18/33] Translated file updates --- data/partials/home.es.yaml | 46 +++++------ data/partials/platforms.es.yaml | 138 ++++++++++++++++---------------- 2 files changed, 92 insertions(+), 92 deletions(-) diff --git a/data/partials/home.es.yaml b/data/partials/home.es.yaml index 3e0cff29ee28e..3e08639fe23b6 100644 --- a/data/partials/home.es.yaml +++ b/data/partials/home.es.yaml @@ -43,20 +43,20 @@ nav_sections: link: watchdog/ title: Datadog Watchdog - desc: Ver alertas de Datadog, incidentes y más en tu dispositivo móvil - icon: '' + icon: mobile link: mobile/ title: Aplicación móvil - desc: Identificar, analizar y mitigar incidencias críticas en tu organización - icon: '' - link: '' + icon: incidents + link: service_management/incident_management title: Gestión de incidencias - desc: Dar seguimiento a los cambios y alertas en tus aplicaciones e infraestructura - icon: '' + icon: events link: events/ title: Eventos - desc: Automatizar y orquestar procesos en todo tu stack tecnológico - icon: rastreo - link: '' + icon: workflows + link: service_management/workflows/ title: Automatización de flujos de trabajo - desc: Cree aplicaciones de bajo código para agilizar sus herramientas internas icon: app-builder @@ -66,7 +66,7 @@ nav_sections: - name: Productos - navtiles: - desc: Supervisar tus hosts, contenedores, procesos y funciones serverless - icon: '' + icon: host-map link: infrastructure/ title: Infraestructura - desc: Detectar y solucionar problemas de rendimiento en tus aplicaciones serverless @@ -75,13 +75,13 @@ nav_sections: title: Serverless - desc: Usar objetos etiquetados para recopilar y generar gráficos de datos sobre el tráfico de tu red - icon: '' - link: '' + icon: network + link: network_monitoring/ title: Monitorización de red - desc: Controla tu gasto en la nube con datos unificados sobre observabilidad y costos - icon: '' - link: '' + icon: cloud-cost-management + link: cloud_cost_management/ title: Gestión de costos en la nube - desc: Explorar dashboards de rendimiento listos para usar y trazas distribuidas icon: apm @@ -89,29 +89,29 @@ nav_sections: title: APM - desc: Comparar snapshots de rendimiento e investigar cuellos de botella icon: profiling-1 - link: '' + link: profiler/ title: Continuous Profiler - desc: Explorar dashboards enriquecidos, métricas de consultas y ejemplos de consultas - icon: '' - link: tracing/trace_explorer/ + icon: database-2 + link: database_monitoring/ title: Monitorización de bases de datos - desc: Rastrear y mejorar el rendimiento de tus pipelines de streaming de datos - icon: '' + icon: datastreams-monitoring link: data_streams/ title: Data Streams Monitoring - desc: Monitorizar y optimizar tus trabajos de procesamiento de datos - icon: '' + icon: data-jobs-monitoring link: data_jobs/ title: Monitorización de trabajos de datos - desc: Descubrir, asignar y monitorizar servicios sin cambiar el código icon: usm - link: '' + link: universal_service_monitoring/ title: Universal Service Monitoring - desc: Garantizar el tiempo de actividad, avisar de problemas regionales y probar el rendimiento de aplicaciones - icon: '' - link: '' + icon: synthetics + link: synthetics/ title: Monitorización Synthetic - desc: Identificar los errores críticos y acelerar la resolución en la web, los dispositivos móviles y el backend. @@ -119,7 +119,7 @@ nav_sections: link: error_tracking/ title: Rastreo de errores - desc: Capturar, observar y analizar la experiencia del usuario de tus aplicaciones - icon: '' + icon: rum link: real_user_monitoring/ title: Real User Monitoring - desc: Obtener información sobre el comportamiento de los usuarios y tomar decisiones @@ -129,7 +129,7 @@ nav_sections: title: Análisis de productos - desc: Monitorizar recorridos del usuario y transacciones comerciales en aplicaciones móviles - icon: '' + icon: mobile link: mobile_app_testing/ title: Test de aplicaciones móviles - desc: Hacer tests de un extremo a otro y de integración sin código con proveedores @@ -151,7 +151,7 @@ nav_sections: link: security/ title: Seguridad - desc: Explorar, buscar y crear distribuciones para tus métricas - icon: '' + icon: metric link: metrics/ title: Métricas - desc: Procesar, monitorizar y archivar tus logs ingeridos @@ -163,7 +163,7 @@ nav_sections: link: observability_pipelines/ title: Pipelines de observabilidad - desc: Rastrear, monitorizar y asegurar tus solicitudes de LLM - icon: '' + icon: llm-observability link: llm_observability/ title: Observabilidad de LLM - nav_section: diff --git a/data/partials/platforms.es.yaml b/data/partials/platforms.es.yaml index 77bfb0b8754f4..b5f0fd1b64188 100644 --- a/data/partials/platforms.es.yaml +++ b/data/partials/platforms.es.yaml @@ -24,130 +24,130 @@ gs: link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos name: rockylinux - image: platform_almalinux.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=CentOS + link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos name: almalinux -- image: plataforma_fedora.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Fedora +- image: platform_fedora.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=fedora name: fedora -- image: plataforma_suse.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=SUSE +- image: platform_suse.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=suse name: suse -- image: plataforma_aix.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=aix +- image: platform_aix.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=aix name: aix -- image: plataforma_coreos.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=coreos +- image: platform_coreos.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=coreos name: coreos -- image: plataforma_docker.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Docker +- image: platform_docker.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=docker name: docker -- image: plataforma_kubernetes.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Kubernetes +- image: platform_kubernetes.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes name: kubernetes -- image: plataforma_openshift.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=openshift +- image: platform_openshift.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=openshift name: openshift -- image: plataforma_chef.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=chef +- image: platform_chef.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=chef name: chef -- image: plataforma_marioneta.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=puppet +- image: platform_puppet.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=puppet name: marioneta -- image: plataforma_ansible.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=ansible +- image: platform_ansible.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=ansible name: ansible -- image: plataforma_nube_fundición.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=cloud_foundry +- image: platform_cloud_foundry.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=cloud_foundry name: cloud_foundry -- image: plataforma_saltstack.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=saltstack +- image: platform_saltstack.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=saltstack name: salt -- image: plataforma_heroku.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Heroku +- image: platform_heroku.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=heroku name: heroku -- image: plataforma_fromsource.png - link: https://app.datadoghq.com/account/settings/Agent/latest?platform=source +- image: platform_fromsource.png + link: https://app.datadoghq.com/account/settings/agent/latest?platform=source name: fuente platforms: - category: Linux - image: plataforma_aix.png - link: Agent/uso_agente_basico/aix/ + image: platform_aix.png + link: agent/basic_agent_usage/aix/ name: aix - category: Linux - image: plataforma_almalinux.png - link: Agent/uso_agente_basico/CentOS/ + image: platform_almalinux.png + link: agent/basic_agent_usage/centos/ name: almalinux - category: Linux - image: plataforma_amazonlinux.png - link: Agent/uso_agente_basico/amazonlinux/ + image: platform_amazonlinux.png + link: agent/basic_agent_usage/amazonlinux/ name: amazonlinux - category: configuration_management - image: plataforma_ansible.png - link: Agent/uso_agente_basico/ansible/ + image: platform_ansible.png + link: agent/basic_agent_usage/ansible/ name: ansible - category: Linux - image: plataforma_centos.png - link: Agent/uso_agente_basico/CentOS/ + image: platform_centos.png + link: agent/basic_agent_usage/centos/ name: centos - category: configuration_management - image: plataforma_chef.png - link: Agent/uso_agente_basico/chef/ + image: platform_chef.png + link: agent/basic_agent_usage/chef/ name: chef - category: Linux - image: plataforma_debian.png - link: Agent/uso_del_agente_basico/deb/ + image: platform_debian.png + link: agent/basic_agent_usage/deb/ name: deb - category: cloud_and_container - image: plataforma_docker.png - link: Agent/Docker/ + image: platform_docker.png + link: agent/docker/ name: docker - category: Linux - image: plataforma_fedora.png - link: Agent/uso_agente_basico/Fedora/ + image: platform_fedora.png + link: agent/basic_agent_usage/fedora/ name: fedora - category: cloud_and_container - image: plataforma_heroku.png - link: Agent/uso_agente_basico/Heroku/ + image: platform_heroku.png + link: agent/basic_agent_usage/heroku/ name: heroku - category: cloud_and_container - image: plataforma_kubernetes.png - link: Agent/Kubernetes/ + image: platform_kubernetes.png + link: agent/kubernetes/ name: kubernetes - category: macOS - image: plataforma_macos.png - link: Agent/uso_agente_basico/osx/ + image: platform_macos.png + link: agent/basic_agent_usage/osx/ name: osx - category: Linux - image: plataforma_oracle.png - link: Agent/uso_agente_basico/oracle/ + image: platform_oracle.png + link: agent/basic_agent_usage/oracle/ name: Oracle - category: configuration_management - image: plataforma_marioneta.png - link: Agent/uso_agente_basico/puppet/ + image: platform_puppet.png + link: agent/basic_agent_usage/puppet/ name: puppet - category: Linux - image: plataforma_redhat.png - link: Agent/uso_agente_basico/redhat/ + image: platform_redhat.png + link: agent/basic_agent_usage/redhat/ name: redhat - category: Linux - image: plataforma_rockylinux.png - link: Agent/uso_agente_basico/CentOS/ + image: platform_rockylinux.png + link: agent/basic_agent_usage/centos/ name: rockylinux - category: configuration_management - image: plataforma_saltstack.png - link: Agent/uso_agente_basico/saltstack/ + image: platform_saltstack.png + link: agent/basic_agent_usage/saltstack/ name: salt - category: Linux - image: plataforma_suse.png - link: Agent/uso_agente_basico/SUSE/ + image: platform_suse.png + link: agent/basic_agent_usage/suse/ name: suse - category: Linux - image: plataforma_ubuntu.png - link: Agent/uso_agente_basico/Ubuntu/ + image: platform_ubuntu.png + link: agent/basic_agent_usage/ubuntu/ name: ubuntu - category: Windows - image: plataforma_windows.png - link: Agent/uso_agente_basico/Windows/ + image: platform_windows.png + link: agent/basic_agent_usage/windows/ name: windows - category: Windows image: platform_sccm.png From 764cbfc08c483dc179192389971273e854ac9d3c Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 11:16:00 +0000 Subject: [PATCH 19/33] Translated file updates --- content/es/integrations/datadog_cluster_agent.md | 4 ++-- content/ja/integrations/impala.md | 2 +- 2 files changed, 3 insertions(+), 3 deletions(-) diff --git a/content/es/integrations/datadog_cluster_agent.md b/content/es/integrations/datadog_cluster_agent.md index b3a813f6f91e0..e3265e1f6115b 100644 --- a/content/es/integrations/datadog_cluster_agent.md +++ b/content/es/integrations/datadog_cluster_agent.md @@ -25,7 +25,7 @@ author: support_email: help@datadoghq.com categories: - contenedores -custom_kind: integration +custom_kind: integración dependencies: - https://github.com/DataDog/integrations-core/blob/master/datadog_cluster_agent/README.md display_on_public_website: true @@ -33,7 +33,7 @@ draft: false git_integration_title: datadog_cluster_agent integration_id: datadog-cluster-agent integration_title: Datadog Cluster Agent -integration_version: 5.1.0 +integration_version: 5.3.0 is_public: true manifest_version: 2.0.0 name: datadog_cluster_agent diff --git a/content/ja/integrations/impala.md b/content/ja/integrations/impala.md index 7706e772a44fb..e13726524b5a2 100644 --- a/content/ja/integrations/impala.md +++ b/content/ja/integrations/impala.md @@ -40,7 +40,7 @@ draft: false git_integration_title: impala integration_id: impala integration_title: Impala -integration_version: 3.1.0 +integration_version: 3.2.0 is_public: true manifest_version: 2.0.0 name: impala From 358c88c1b3962ab75a27783ee7732631f8e3318e Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 13:15:58 +0000 Subject: [PATCH 20/33] Translated file updates From f33f861f464619fa1b039e7a1ce1b6c5aad67524 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 15:15:59 +0000 Subject: [PATCH 21/33] Translated file updates --- .../generate_metrics/splunk_hec.md | 249 ++++++++++++++++++ 1 file changed, 249 insertions(+) create mode 100644 content/es/observability_pipelines/set_up_pipelines/generate_metrics/splunk_hec.md diff --git a/content/es/observability_pipelines/set_up_pipelines/generate_metrics/splunk_hec.md b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/splunk_hec.md new file mode 100644 index 0000000000000..fae1ab671106c --- /dev/null +++ b/content/es/observability_pipelines/set_up_pipelines/generate_metrics/splunk_hec.md @@ -0,0 +1,249 @@ +--- +disable_toc: false +title: Generar métricas para el Splunk HTTP Event Collector (HEC) +--- + +## Información general + +Configura tus Splunk HTTP Event Collectors (HEC) para enviar logs al worker de Observability Pipelines para que puedas generar métricas a partir de esos logs. + +{{% observability_pipelines/use_case_images/generate_metrics %}} + +Este documento te guiará a través de los siguientes pasos para configurar el envío doble: + +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) +1. [Envío de logs al worker mediante Splunk HEC](#send-logs-to-the-observability-pipelines-worker-over-splunk-hec) + +## Requisitos previos + +### Splunk HEC +{{% observability_pipelines/prerequisites/splunk_hec %}} + +### Gestión de logs de Datadog + +{{% observability_pipelines/prerequisites/datadog_agent_destination_only %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][2]. +1. Selecciona la plantilla **Generate Metrics** (Generar métricas) para crear un pipeline nuevo. +1. Selecciona **Splunk HEC** como el origen. + +### Configurar el origen + +{{% observability_pipelines/source_settings/splunk_hec %}} + +### Configurar los destinos + +Introduce la siguiente información en función de los destinos de logs seleccionados. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_settings/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{% tab "Generar métricas" %}} + +{{% observability_pipelines/processors/generate_metrics %}} + +{{% /tab %}} +{{% tab "Añadir variables de entorno" %}} + +{{% observability_pipelines/processors/add_env_vars %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Introduce la dirección Splunk HEC. Esta es la dirección y el puerto donde tus aplicaciones están enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{% tab "New Relic" %}} + +{{% observability_pipelines/destination_env_vars/new_relic %}} + +{{% /tab %}} +{{< /tabs >}} + +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Kubernetes" %}} + +{{% observability_pipelines/install_worker/kubernetes %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +{{% observability_pipelines/log_source_configuration/splunk_hec %}} + +[1]: /es/observability_pipelines/dual_ship_logs/splunk_tcp/ +[2]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file From 2598d53c535a76a6057ca6f0b77986c407df1374 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 17:16:00 +0000 Subject: [PATCH 22/33] Translated file updates --- .../components-azure/database-for-mysql.md | 72 +++++++++++++++++++ .../es/ddsql_editor/reference/data_types.md | 44 ++++++++++++ 2 files changed, 116 insertions(+) create mode 100644 content/es/cloudcraft/components-azure/database-for-mysql.md create mode 100644 content/es/ddsql_editor/reference/data_types.md diff --git a/content/es/cloudcraft/components-azure/database-for-mysql.md b/content/es/cloudcraft/components-azure/database-for-mysql.md new file mode 100644 index 0000000000000..29d0451d723d1 --- /dev/null +++ b/content/es/cloudcraft/components-azure/database-for-mysql.md @@ -0,0 +1,72 @@ +--- +title: Componente Database for MySQL +--- + +## Información general + +Puedes utilizar el componente Database for MySQL para representar y visualizar bases de datos MySQL desde tu entorno Azure. + +{{< img src="cloudcraft/components-azure/database-for-mysql/component-database-for-mysql-diagram.png" alt="Captura de pantalla de un diagrama de Cloudcraft isométrico, que muestra componentes Azure interconectados." responsive="true" style="width:60%;">}} + +## Barra de herramientas + +Utiliza la barra de herramientas para configurar y personalizar el componente. Están disponibles las siguientes opciones: + +- **Color**: Selecciona colores para dar énfasis y rellenar el cuerpo del componente en la vista 3D. +- **Opción de despliegue**: Selecciona el tipo de despliegue para tu base de datos. +- **Nivel**: Selecciona el nivel de rendimiento de tu base de datos. +- **Instancia**: Selecciona el tipo de instancia de tu base de datos. Al cambiar el tipo de instancia se modifican los detalles de hardware que aparecen en la barra de herramientas para reflejar lo que utiliza el hipervisor. +- **Alta disponibilidad**: Selecciona una opción de alta disponibilidad para tu base de datos. Solo está disponible cuando la **opción de despliegue** está configurada como **servidor flexible**. +- **Almacenamiento (GiB)**: Introduce el volumen total de almacenamiento en gibibytes disponible para tu base de datos. + +## API + +Utiliza [la API Cloudcraft][1] para acceder mediante programación y representar tus diagramas de arquitectura como objetos JSON. El siguiente es un ejemplo de objeto JSON de un componente Database for MySQL: + +### Esquema + +```json +{ + "type": "azuremysql", + "id": "db7da7f6-9d1a-46df-808c-6979e02d5182", + "region": "northcentralus", + "mapPos": [5,0], + "deploymentOption": "Single", + "tier": "GeneralPurpose", + "instance": "GP_Gen5_2", + "storageMB": 20480, + "haEnabled": false, + "backupRetention": 7, + "color": { + "isometric": null, + "2d": null + }, + "accentColor": { + "isometric": null, + "2d": null + }, + "link": "https://azure.microsoft.com/products/mysql", + "locked": true +} +``` + +- **type: string**. El tipo de componente. Debe ser una cadena con el valor `azuremysql` para este componente. +- **id: string, uuid**: El identificador único para el componente. La API utiliza un UUID v4 internamente pero acepta cualquier cadena única. +- **resourceId: string**: El identificador único global para el componente dentro de Azure. +- **region: string**: La región Azure para el componente. La API admite todas las regiones del mundo, excepto China. +- **mapPos: array**: La posición del componente en el plano. La API utiliza un único par de coordenadas X e Y para expresar el posicionamiento. +- **deploymentOption: string**: El tipo de despliegue para la base de datos. Por defecto es `Single`. +- **tier: string**: El nivel de rendimiento de la base de datos. Por defecto es `GeneralPurpose`. +- **instance: string**: El tipo de instancia para la base de datos. Por defecto es `GP_Gen5_2`. +- **storageMB: string**: El volumen total de almacenamiento en megabytes disponible para la base de datos. Por defecto es `20480`. +- **haEnabled: boolean**: Si está habilitada la alta disponibilidad. Por defecto es `false.` +- **color: object**: El color de relleno para el cuerpo del componente. + - **isometric: string**: Un color hexadecimal para el cuerpo del componente en la vista 3D. Por defecto es `#CEE0F5`. + - **2d: string**: Un color hexadecimal para el cuerpo del componente en la vista 2D. Por defecto es `null`. +- **accentColor: object**: El color para dar énfasis al logotipo del componente. + - **isometric: string**: Un color hexadecimal para el logotipo del componente en la vista 3D. Por defecto es `#0078D4`. + - **2d: string**: Un color hexadecimal para el logotipo del componente en la vista 2D. Por defecto es `null`. +- **link: string, uri**: El URI que vincula el componente con otro diagrama o un sitio web externo. Acepta uno de dos formatos, `blueprint://` o `https://`. +- **locked: boolean**: Si se permite cambiar la posición del componente a través de la interfaz web. Por defecto es `false`. + +[1]: https://developers.cloudcraft.co/ \ No newline at end of file diff --git a/content/es/ddsql_editor/reference/data_types.md b/content/es/ddsql_editor/reference/data_types.md new file mode 100644 index 0000000000000..1d372025b0f45 --- /dev/null +++ b/content/es/ddsql_editor/reference/data_types.md @@ -0,0 +1,44 @@ +--- +aliases: +- /es/dashboards/ddsql_editor/reference/data_types/ +title: Tipos de datos DDSQL +--- + +{{< callout url="https://datadoghq.com/private-beta/ddsql-editor">}} +DDSQL está en Vista previa. +{{< /callout >}} + +## Tipos de datos + +DDSQL implementa una versión simplificada del sistema de tipos SQL que proviene principalmente de PostgreSQL. + +### Tipos de bases + +| Nombre SQL | Alias | Descripción | +|------------|--------------------------|-------------| +| entero | Int | El almacenamiento es siempre int64. | +| texto | char, varchar, cadena | El almacenamiento es siempre UTF-8 de longitud ilimitada. | +| real | doble, decimal | El almacenamiento es siempre IEEE-754 float64. | +| marca de tiempo | marca de tiempo sin zona horaria | Tipo de fecha y hora estándar de SQL. | +| fecha | | Marca de tiempo con resolución a nivel de día. | +| intervalo | | Duración. | +| grupo | hstore, etiqueta_columna | Conjunto ordenado de cadenas con semántica "= es contiene" similar a etiqueta (tag). | +| booleano | | `TRUE` o `FALSE` | +| json | | Datos JSON | + +### Matrices +Las matrices son una colección ordenada de un tipo base específico. Cada tipo base puede tener su correspondiente tipo de matriz. + +### Literales + +La siguiente tabla contiene ejemplos sobre cómo declarar literales para cada tipo, para su uso en expresiones como `SELECT ` o en comparaciones como `WHERE timestamp > timestamp '1 hr ago'`. + +| Nombre | Ejemplo | +|------------|---------| +| entero | `1`, `4`, `23901239412`, `0x4B1D` | +| texto | `'Hello, world'` | +| real | `1.0`, `1e30`, `314e-2`, `.25`, `5.` | +| fecha | `date ` (donde `DATE_STRING` es una cadena que puede convertirse en una fecha, o una cadena relativa como `1 day ago`') | +| marca de tiempo | `timestamp ` (donde `TIMESTAMP_STRING` es una cadena que puede analizarse como una marca de tiempo, o una cadena relativa como `'1 day ago'`, `'now'`) | +| intervalo | `interval ` (donde `INTERVAL` es una cadena que puede analizarse en un intervalo, como `1 day`, `30s`, `2 min`') | +| matrices | `array[values...]` | \ No newline at end of file From 198a21d04b3455ab966b9c6b951f2dfb7ddb703c Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 19:16:04 +0000 Subject: [PATCH 23/33] Translated file updates --- .../kotlin_multiplatform/data_collected.md | 29 ++++++++++++ .../workflows/actions/data_transformation.md | 46 +++++++++---------- 2 files changed, 51 insertions(+), 24 deletions(-) create mode 100644 content/es/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/data_collected.md diff --git a/content/es/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/data_collected.md b/content/es/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/data_collected.md new file mode 100644 index 0000000000000..858395d6776c3 --- /dev/null +++ b/content/es/real_user_monitoring/mobile_and_tv_monitoring/kotlin_multiplatform/data_collected.md @@ -0,0 +1,29 @@ +--- +aliases: +- /es/real_user_monitoring/kotlin-multiplatform/data_collected/ +- /es/real_user_monitoring/mobile_and_tv_monitoring/kotlin-multiplatform/data_collected/ +description: Obtén más información acerca de los datos recopilados por Kotlin Multiplatform. +further_reading: +- link: https://github.com/DataDog/dd-sdk-kotlin-multiplatform + tag: Código fuente + text: Código fuente de dd-sdk-kotlin-multiplatform +- link: real_user_monitoring/explorer/ + tag: Documentación + text: Aprender a explorar tus datos de RUM +title: Datos recopilados por Kotlin Multiplatform +--- +## Información general + +El SDK Kotlin Multiplatform de Datadog para RUM genera eventos con métricas y atributos asociados. Las métricas son valores cuantificables que pueden utilizarse para mediciones relacionadas con eventos. Los atributos son valores no cuantificables que se utilizan para segmentar los datos de métricas (agrupar por) en el Explorador de RUM. + +La mayoría de los datos de monitorización de Kotlin Multiplatform son recopilados por los SDK nativos Datadog iOS y Android para RUM y se conservan durante los mismos periodos de tiempo. + +* Para métricas y atributos específicos de eventos de iOS, consulta [datos recopilados de RUM iOS][1]. +* Para conocer los atributos y métricas específicos de eventos de Android, consulta [datos recopilados de RUM Android][2]. + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/real_user_monitoring/mobile_and_tv_monitoring/ios/data_collected/#event-specific-metrics-and-attributes +[2]: /es/real_user_monitoring/mobile_and_tv_monitoring/android/data_collected/#event-specific-metrics-and-attributes \ No newline at end of file diff --git a/content/es/service_management/workflows/actions/data_transformation.md b/content/es/service_management/workflows/actions/data_transformation.md index 3d39154a8ff06..b08e48cd1c603 100644 --- a/content/es/service_management/workflows/actions/data_transformation.md +++ b/content/es/service_management/workflows/actions/data_transformation.md @@ -4,10 +4,10 @@ title: Transformación de datos --- {{< site-region region="gov" >}} -
La automatización del flujos de trabajo no es compatible con el sitio de Datadog seleccionado ({{< region-param key="dd_site_name" >}}).
+
La automatización de flujos de trabajo no es compatible con el sitio de Datadog seleccionado ({{< region-param key="dd_site_name" >}}).
{{< /site-region >}} -Las acciones de **Expression** (Expresión) y de **Function** (Función) realizan transformaciones de datos personalizadas dentro de tus flujos de trabajo utilizando JavaScript. Utiliza los valores de cualquier variable de contexto disponible dentro de tu flujo de trabajo como entradas para tus expresiones y funciones JavaScript con la sintaxis `$.Steps..`. También puedes utilizar `_` para hacer uso de [Lodash][1] en tus acciones de transformación de datos con la misma sintaxis. Por ejemplo, para hacer referencia a la variable de estado (`status`) de la solicitud HTTP desde el paso de solicitud HTTP (`Make_request`), deberías utilizar la siguiente variable de contexto: +Las acciones de **Expression** (Expresión) y de **Function** (Función) realizan transformaciones de datos personalizadas dentro de tus flujos de trabajo utilizando JavaScript. Utiliza los valores de cualquier variable de contexto disponible dentro de tu flujo de trabajo como entradas para tus expresiones y funciones JavaScript, con la sintaxis `$.Steps..`. También puedes utilizar `_` para hacer uso de [Lodash][1] en tus acciones de transformación de datos, con la misma sintaxis. Por ejemplo, para hacer referencia a la variable de estado (`status`) de la solicitud HTTP desde el paso de solicitud HTTP (`Make_request`), deberías utilizar la siguiente variable de contexto: ``` $.Steps.Make_request.status @@ -23,7 +23,7 @@ Los datos devueltos por estas acciones se pueden consultar en los siguientes pas ## Expresión -Utiliza acciones de expresión para transformaciones de datos que puedan realizarse en una sola línea de código y que no requieran asignaciones de variables ni múltiples operaciones independientes. Por ejemplo: +Utiliza acciones de expresión para transformaciones de datos que puedan realizarse en una sola línea de código y que no requieran asignaciones de variables, ni múltiples operaciones independientes. Por ejemplo: `[1, 2, 3].filter(x => x < 3)` @@ -31,35 +31,33 @@ Para añadir una acción de expresión: - En un nuevo flujo de trabajo, haz clic en **Add step** (Añadir paso) y busca `expression`. Selecciona la acción de **Expression** (Expresión) para añadirla a tu flujo de trabajo. - En un flujo de trabajo existente, haz clic en **+** y busca `expression`. Selecciona la acción de **Expression** (Expresión) para añadirla a tu flujo de trabajo. +En un paso de expresión, la ejecución utiliza _copias_ de todas las variables disponibles. La mutación de una variable dentro de un paso no tiene ningún efecto sobre el valor de la variable fuera del paso. Para asignar el resultado de una expresión a una variable, consulta [Definir variables][4]. + ## Función -La acción de función permite realizar asignaciones de variables y transformaciones de datos que requieren varias expresiones. +La acción de función te permite realizar asignaciones de variables y transformaciones de datos que requieren varias expresiones. Para añadir una acción de función: -- En un nuevo flujo de trabajo, haz clic en **Add step** (Añadir paso) y busca `function`. Selecciona la acción de **Function** (Función) para añadirla a tu flujo de trabajo. -- En un flujo de trabajo existente, haz clic en **+** y busca `function`. Selecciona la acción de **Function** (Función) para añadirla a tu flujo de trabajo. +- En un nuevo flujo de trabajo, haz clic en **Add step** (Añadir paso) y busca `function`. Selecciona la acción de **Function** (Función), para añadirla a tu flujo de trabajo. +- En un flujo de trabajo existente, haz clic en **+** y busca `function`. Selecciona la acción de **Function** (Función), para añadirla a tu flujo de trabajo. -## Pruebas de expresiones y funciones +### Escribir funciones con IA -Para probar una una acción de expresión o de función, haz clic en **Test** (Prueba), en la sección **Inputs** (Entradas). Si la acción utiliza una variable de salida de un paso anterior, comenta la variable en tu código y sustitúyela por datos de la prueba. Por ejemplo, considera la siguiente acción que asigna variables al nombre del flujo de trabajo y a la salida `Steps.List_monitors` de un paso anterior: +Puedes utilizar Bits AI para ayudarte a escribir el JavaScript para una paso de **función**. Para utilizar esta característica, sigue los siguientes pasos: -```js -let name = $.WorkflowName; -let object = $.Steps.List_monitors; +1. Añade un paso de **función** a tu flujo de trabajo. +1. En **General**, en el campo **Script**, haz clic en ** Write with Bits AI** (Escribir con Bits AI). +1. En el campo **Describir tu script de transformación**, introduce una descripción de lo que quieres que haga tu script. Haz clic en la flecha hacia arriba (**↑**) para enviar tu descripción. +1. Elige una opción para **Reemplazar script**, **Insertar en script** o **Copiar al portapapeles**. +1. Comprueba el script y cámbialo según sea necesario para adaptarlo a tus necesidades. -... -``` +## Expresiones y funciones de test -Para probar la acción, comenta las asignaciones de variables existentes y sustitúyelas por datos de prueba codificados: +Consulta la página de test y depuración para saber cómo [probar un paso del flujo de trabajo][3]. -```js -\\ let name = $.WorkflowName; -let name = 'Test workflow' -\\ let object = $.Steps.List_monitors; -let object = {0:{ - 'name': 'Test monitor' -}} -... -``` +
¿Tienes preguntas o comentarios? Únete al canal **#workflows** en [Datadog Community Slack][2]. -[1]: https://lodash.com/ \ No newline at end of file +[1]: https://lodash.com/ +[2]: https://datadoghq.slack.com/ +[3]: /es/service_management/workflows/test_and_debug/#test-a-step +[4]: /es/service_management/workflows/actions/set_variables \ No newline at end of file From ec0b491d1c9470ba211ed8dc1c72174fb524e0c7 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 21:15:58 +0000 Subject: [PATCH 24/33] Translated file updates --- .../guide/debug-symbols.md | 47 ++++++++ .../setup/agent/linux.md | 104 ++++++++++++++++++ 2 files changed, 151 insertions(+) create mode 100644 content/es/real_user_monitoring/guide/debug-symbols.md create mode 100644 content/es/security/cloud_security_management/setup/agent/linux.md diff --git a/content/es/real_user_monitoring/guide/debug-symbols.md b/content/es/real_user_monitoring/guide/debug-symbols.md new file mode 100644 index 0000000000000..c098953662a1c --- /dev/null +++ b/content/es/real_user_monitoring/guide/debug-symbols.md @@ -0,0 +1,47 @@ +--- +title: Investigar stack traces enmascaradas con RUM Debug Symbols +--- + +La [página RUM Debug Symbols][1] enumera todos los símbolos de depuración que están cargados para un tipo determinado de aplicación RUM. Puedes usar esta página para investigar stack traces enmascaradas. + +El siguiente mensaje de error aparece cuando una stack trace no se desenmascara correctamente en RUM o Error Tracking: _La stack trace no se pudo desenmascarar porque no se encontraron símbolos de depuración para esta aplicación. Si no estás enmascarando tu aplicación, ignora este mensaje. De lo contrario, carga tus símbolos de depuración para ver las stack traces desenmascaradas. Puedes ver todos los símbolos cargados en la página RUM Debug Symbols._ + +{{< img src="real_user_monitoring/guide/debug-symbols/deobfuscation-failed-message.png" alt="Error de desenmascaramiento: La stack trace no se pudo desenmascarar porque no se encontraron archivos de asignación para esta aplicación. Si no estás enmascarando tu aplicación, ignora este mensaje. De lo contrario, carga tus archivos de asignación para ver las stack traces desenmascaradas. Puedes ver todos los archivos cargados en la página RUM Debug Symbols." >}} + +Esto puede ocurrir por varios motivos: + +### La stack trace no estaba enmascarada + +Datadog intenta desenmascarar todas las stack traces, incluidas las stack traces que no están enmascaradas (por ejemplo, de la ejecución de tests locales o para creaciones que no son de producción). + +Puedes ignorar esta advertencia. La stack trace ya es legible. + +### No se han cargado símbolos de depuración para esta versión + +Utiliza la [página RUM Debug Symbols][1] para ver si hay símbolos de depuración para tu aplicación. Esta página está filtrada por **tipo** (JavaScript, Android, iOS, React Native, Flutter). Utiliza el filtro para encontrar los símbolos de depuración que buscas. + +Si no hay símbolos de depuración para tu aplicación, [cárgalos][2]. + +
+Asegúrate de que el tamaño de cada símbolo de depuración no supere el límite de **500 MB**; de lo contrario, se rechazará la carga. +Para los dSYM de iOS, se admiten archivos individuales de hasta **2 GB**. +
+ +### Las etiquetas (tags) de los símbolos de depuración no coinciden + +Datadog se basa en diferentes etiquetas (tags) para hacer coincidir los símbolos de depuración con stack traces. Estas etiquetas (tags) varían para cada tipo de aplicación: + +| Tipo de aplicación | Combinación de etiquetas (tags) utilizada para el emparejamiento | +| ---- | ---- | +| JavaScript | `service`, `version`, `path`| +| Android | v1.13.0: `build_id`
Versiones anteriores: `service`, `version`, `variant`| +| iOS | `uuid` | +| React Native | `service`, `version`, `bundle_name`, `platform`; si varios mapas de fuentes coinciden en estos campos, se selecciona el que tenga el `build_number` más alto | +| Flutter | `service`, `version`, `variant`, `architecture` | + +La [página RUM Debug Symbols][1] muestra los valores de estas etiquetas (tags). Si encuentras un desajuste, [carga los símbolos de depuración][2] de nuevo con un conjunto corregido de etiquetas (tags). + + + +[1]: https://app.datadoghq.com/source-code/setup/rum +[2]: /es/real_user_monitoring/error_tracking/mobile/android/?tab=us#upload-your-mapping-file \ No newline at end of file diff --git a/content/es/security/cloud_security_management/setup/agent/linux.md b/content/es/security/cloud_security_management/setup/agent/linux.md new file mode 100644 index 0000000000000..1f187eb900f38 --- /dev/null +++ b/content/es/security/cloud_security_management/setup/agent/linux.md @@ -0,0 +1,104 @@ +--- +aliases: +- /es/security/cloud_security_management/setup/csm_cloud_workload_security/agent/linux +- /es/security/cloud_security_management/setup/csm_pro/agent/linux/ +- /es/security/cloud_security_management/setup/csm_enterprise/agent/linux/ +code_lang: linux +code_lang_weight: 80 +title: Configuración de Cloud Security Management en Linux +type: multi-code-lang +--- + +Sigue las instrucciones a continuación para activar las funciones de Misconfigurations, Threat Detection y Vulnerability Management. + +{{< partial name="security-platform/CSW-billing-note.html" >}} + + +## Requisitos previos + +- Datadog Agent versión `7.46` o posterior. + +## Instalación + +Para una implementación basada en paquetes, [instala el paquete de Datadog][6] con tu gestor de paquetes y, a continuación, actualiza los archivos `datadog.yaml`, `security-agent.yaml` y `system-probe.yaml`. + +{{< code-block lang="bash" filename="/etc/datadog-agent/datadog.yaml" disable_copy="false" collapsible="true" >}} +remote_configuration: + ## @param activado - booleano - opcional - predeterminado: false + ## Establecer en true para habilitar la configuración remota. + activado: true + +runtime_security_config: + ## @param activado - booleano - opcional - predeterminado: false + ## Establecer en true para activar la Threat Detection + activado: true + +compliance_config: + ## @param activado - booleano - opcional - predeterminado: false + ## Establécelo en true para habilitar los referencias CIS para Misconfigurations. + # + activado: true + host_benchmarks: + activado: true + +# Las vulnerabilidades se evalúan y escanean en comparación con tus contenedores y hosts cada hora. +sbom: + activado: true + # Establécelo en true para activar Container Vulnerability Management + container_image: + activado: true + # Establécelo en true para activar Host Vulnerability Management + host: + activado: true +{{< /code-block >}} + +{{< code-block lang="bash" filename="/etc/datadog-agent/security-agent.yaml" disable_copy="false" collapsible="true" >}} +runtime_security_config: + ## @param activado - booleano - opcional - predeterminado: false + ## Establécelo en true para activar Threat Detection + activado: true + +compliance_config: + ## @param activado - booleano - opcional - predeterminado: false + ## Establécelo en true para habilitar los referencias CIS para Misconfigurations. + # + activado: true + host_benchmarks: + activado: true +{{< /code-block >}} + +{{< code-block lang="bash" filename="/etc/datadog-agent/system-probe.yaml" disable_copy="false" collapsible="true" >}} +runtime_security_config: + ## @param activado - booleano - opcional - predeterminado: false + ## Establécelo en true para activar Threat Detection + activado: true + + remote_configuration: + ## @param activado - booleano - opcional - predeterminado: false + activado: true +{{< /code-block >}} + +**Notas**: + +- También puedes utilizar el siguiente [script de instalación del Agent][5] para activar automáticamente Misconfigurations y Threat Detection: + + ```shell + DD_COMPLIANCE_CONFIG_ENABLED=true DD_RUNTIME_SECURITY_CONFIG_ENABLED=true DD_API_KEY= DD_SITE="datadoghq.com" bash -c "$(curl -L https://install.datadoghq.com/scripts/install_script_agent7.sh)" + ``` + +- Por defecto, Runtime Security está desactivado. Para activarlo, es necesario actualizar los archivos `security-agent.yaml` y `system-probe.yaml`. +- Si utilizas el script de instalación del Agent para activar Misconfigurations y Threat Detection, debes actualizar manualmente el archivo `datadog.yaml` para habilitar `host_benchmarks` para Misconfigurations, y `sbom` y `container_image` para Container Vulnerability Management. + +```shell +sudo cp /etc/datadog-agent/system-probe.yaml.example /etc/datadog-agent/system-probe.yaml +sudo cp /etc/datadog-agent/security-agent.yaml.example /etc/datadog-agent/security-agent.yaml +sudo chmod 640 /etc/datadog-agent/system-probe.yaml /etc/datadog-agent/security-agent.yaml +sudo chgrp dd-agent /etc/datadog-agent/system-probe.yaml /etc/datadog-agent/security-agent.yaml +``` + +[1]: /es/security/cloud_security_management/misconfigurations/ +[2]: /es/security/threats +[3]: /es/security/cloud_security_management/vulnerabilities +[4]: /es/security/cloud_security_management/setup#supported-deployment-types-and-features +[5]: /es/getting_started/agent/#installation +[6]: /es/agent/?tab=Linux \ No newline at end of file From 7a6ba1d84a9314b2ab63a1bdcb31027ad00406e4 Mon Sep 17 00:00:00 2001 From: guacbot Date: Sun, 19 Jan 2025 23:16:03 +0000 Subject: [PATCH 25/33] Translated file updates --- .../log_volume_control/datadog_agent.md | 233 ++++++++++++++++++ .../sensitive_data_redaction/http_client.md | 231 +++++++++++++++++ .../combining_otel_and_datadog_metrics.md | 74 ++++++ .../es/security/cloud_siem/historical_jobs.md | 47 ++++ 4 files changed, 585 insertions(+) create mode 100644 content/es/observability_pipelines/log_volume_control/datadog_agent.md create mode 100644 content/es/observability_pipelines/sensitive_data_redaction/http_client.md create mode 100644 content/es/opentelemetry/guide/combining_otel_and_datadog_metrics.md create mode 100644 content/es/security/cloud_siem/historical_jobs.md diff --git a/content/es/observability_pipelines/log_volume_control/datadog_agent.md b/content/es/observability_pipelines/log_volume_control/datadog_agent.md new file mode 100644 index 0000000000000..12677ce79ef03 --- /dev/null +++ b/content/es/observability_pipelines/log_volume_control/datadog_agent.md @@ -0,0 +1,233 @@ +--- +disable_toc: false +title: Control de volumen de logs del Datadog Agent +--- + +## Información general + +Configura el worker de Observability Pipelines con el origen del Datadog Agent para que sólo enrute logs útiles a tus destinos. + +{{% observability_pipelines/use_case_images/log_volume_control %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) +1. [Conexión del Datadog Agent al worker de Observability Pipelines](#connect-the-datadog-agent-to-the-observability-pipelines-worker) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/datadog_agent %}} + +## Configurar Observability Pipelines + +1. Navega a [Observability Pipelines][1]. +1. Selecciona la plantilla **Log Volume Control** (Control del volumen de logs) para crear un pipeline nuevo. +1. Selecciona **Datadog Agent** como el origen. + +### Configurar el origen + +{{% observability_pipelines/source_settings/datadog_agent %}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino seleccionado para los logs. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{< /tabs >}} + +### Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Introduce la dirección del Datadog Agent. Esta es la dirección y el puerto donde tu Datadog Agent está enviando sus datos de registro. El worker de Observability Pipelines escucha esta dirección para los logs entrantes. +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Amazon EKS" %}} + +{{% observability_pipelines/install_worker/amazon_eks %}} + +{{% /tab %}} +{{% tab "Azure AKS" %}} + +{{% observability_pipelines/install_worker/azure_aks %}} + +{{% /tab %}} +{{% tab "Google GKE" %}} + +{{% observability_pipelines/install_worker/google_gke %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +## Conectar el Datadog Agent al worker de Observability Pipelines + +{{% observability_pipelines/log_source_configuration/datadog_agent %}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/observability_pipelines/sensitive_data_redaction/http_client.md b/content/es/observability_pipelines/sensitive_data_redaction/http_client.md new file mode 100644 index 0000000000000..3e8c7b2df229c --- /dev/null +++ b/content/es/observability_pipelines/sensitive_data_redaction/http_client.md @@ -0,0 +1,231 @@ +--- +disable_toc: false +title: Redacción de datos confidenciales para clientes HTTP +--- + +## Información general + +Los datos confidenciales, como números de tarjetas de crédito, números de ruta bancaria y claves de API, pueden revelarse involuntariamente en tus logs, lo que puede exponer a tu organización a riesgos financieros y de privacidad. + +Utiliza Observability Pipelines para identificar, etiquetar y, opcionalmente, redactar o hacer hash en información confidencial antes de enrutar logs a diferentes destinos y fuera de tu infraestructura. Puedes utilizar reglas de escaneado predefinidas para detectar patrones comunes como direcciones de correo electrónico, números de tarjetas de crédito, claves de API, tokens de autorización, etc. También puedes crear reglas de escaneado personalizadas mediante patrones de expresión regular que coincidan con información confidencial. También puedes crear reglas de análisis personalizadas mediante patrones de expresión regular para buscar información confidencial. + +{{% observability_pipelines/use_case_images/sensitive_data_redaction %}} + +Este documento te guiará a través de los siguientes pasos: +1. Los [requisitos previos](#prerequisites) necesarios para configurar Observability Pipelines +1. [Configuración de Observability Pipelines](#set-up-observability-pipelines) + +## Requisitos previos + +{{% observability_pipelines/prerequisites/http_client %}} + +## Configurar Observability Pipelines + +1. Navega hasta [Observability Pipelines][1]. +1. Selecciona la plantilla **Sensitive Data Redactions** (Redacciones de datos confidenciales) para crear un nuevo pipeline. +1. Selecciona **HTTP Client** (Cliente HTTP) como el origen. + +### Configurar el origen + +{{% observability_pipelines/source_settings/http_client%}} + +### Configurar los destinos + +Introduce la siguiente información en función del destino de logs seleccionado. + +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_settings/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_settings/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_settings/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_settings/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_settings/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_settings/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_settings/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_settings/amazon_opensearch %}} + +{{% /tab %}} +{{< /tabs >}} + +### Configurar procesadores + +{{% observability_pipelines/processors/intro %}} + +{{% observability_pipelines/processors/filter_syntax %}} + +{{% observability_pipelines/processors/add_processors_sds %}} + +{{< tabs >}} +{{% tab "Filtro" %}} + +{{% observability_pipelines/processors/filter %}} + +{{% /tab %}} +{{% tab "Editar campos" %}} + +{{% observability_pipelines/processors/remap %}} + +{{% /tab %}} +{{% tab "Muestra" %}} + +{{% observability_pipelines/processors/sample %}} + +{{% /tab %}} +{{% tab "Grok Parser" %}} + +{{% observability_pipelines/processors/grok_parser %}} + +{{% /tab %}} +{{% tab "Cuota" %}} + +{{% observability_pipelines/processors/quota %}} + +{{% /tab %}} +{{% tab "Reducir" %}} + +{{% observability_pipelines/processors/reduce %}} + +{{% /tab %}} +{{% tab "Dedupe" %}} + +{{% observability_pipelines/processors/dedupe %}} + +{{% /tab %}} +{{% tab "Sensitive Data Scanner" %}} + +{{% observability_pipelines/processors/sensitive_data_scanner %}} + +{{% /tab %}} +{{% tab "Añadir nombre de host" %}} + +{{% observability_pipelines/processors/add_hostname %}} + +{{% /tab %}} +{{% tab "Parse JSON" %}} + +{{% observability_pipelines/processors/parse_json %}} + +{{% /tab %}} +{{% tab "Tabla de enriquecimiento" %}} + +{{% observability_pipelines/processors/enrichment_table %}} + +{{% /tab %}} +{{< /tabs >}} + +## Instalar el worker de Observability Pipelines +1. Selecciona tu plataforma en el menú desplegable **Choose your installation platform** (Elige tu plataforma de instalación). +1. Ingresa la ruta completa de la URL del endpoint HTTP/S, como `https://127.0.0.8/logs`. El worker de Observability Pipelines recopila eventos de logs de este endpoint. + +1. Proporciona las variables de entorno para cada uno de los destinos seleccionados. Para obtener más información, consulta los [requisitos previos](#prerequisites). +{{< tabs >}} +{{% tab "Datadog" %}} + +{{% observability_pipelines/destination_env_vars/datadog %}} + +{{% /tab %}} +{{% tab "Splunk HEC" %}} + +{{% observability_pipelines/destination_env_vars/splunk_hec %}} + +{{% /tab %}} +{{% tab "Sumo Logic" %}} + +{{% observability_pipelines/destination_env_vars/sumo_logic %}} + +{{% /tab %}} +{{% tab "Syslog" %}} + +{{% observability_pipelines/destination_env_vars/syslog %}} + +{{% /tab %}} +{{% tab "Chronicle" %}} + +{{% observability_pipelines/destination_env_vars/chronicle %}} + +{{% /tab %}} +{{% tab "Elasticsearch" %}} + +{{% observability_pipelines/destination_env_vars/elasticsearch %}} + +{{% /tab %}} +{{% tab "OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/opensearch %}} + +{{% /tab %}} +{{% tab "Amazon OpenSearch" %}} + +{{% observability_pipelines/destination_env_vars/amazon_opensearch %}} + +{{% /tab %}} +{{< /tabs >}} +1. Sigue las instrucciones de tu entorno para instalar el worker. +{{< tabs >}} +{{% tab "Docker" %}} + +{{% observability_pipelines/install_worker/docker %}} + +{{% /tab %}} +{{% tab "Amazon EKS" %}} + +{{% observability_pipelines/install_worker/amazon_eks %}} + +{{% /tab %}} +{{% tab "Azure AKS" %}} + +{{% observability_pipelines/install_worker/azure_aks %}} + +{{% /tab %}} +{{% tab "Google GKE" %}} + +{{% observability_pipelines/install_worker/google_gke %}} + +{{% /tab %}} +{{% tab "Linux (APT)" %}} + +{{% observability_pipelines/install_worker/linux_apt %}} + +{{% /tab %}} +{{% tab "Linux (RPM)" %}} + +{{% observability_pipelines/install_worker/linux_rpm %}} + +{{% /tab %}} +{{% tab "CloudFormation" %}} + +{{% observability_pipelines/install_worker/cloudformation %}} + +{{% /tab %}} +{{< /tabs >}} + +[1]: https://app.datadoghq.com/observability-pipelines \ No newline at end of file diff --git a/content/es/opentelemetry/guide/combining_otel_and_datadog_metrics.md b/content/es/opentelemetry/guide/combining_otel_and_datadog_metrics.md new file mode 100644 index 0000000000000..491951a49bc49 --- /dev/null +++ b/content/es/opentelemetry/guide/combining_otel_and_datadog_metrics.md @@ -0,0 +1,74 @@ +--- +further_reading: +- link: /metrics/ + tag: Documentación + text: Documentación de métricas +private: true +title: Combinación de métricas de OpenTelemetry y Datadog +--- + +## Información general + +{{< callout url="#" btn_hidden="true" header="¡Obtén la vista previa!">}} +La función equiv_otel() se encuentra en vista previa. Si tienes algún comentario relacionado con esta función, ponte en contacto con el equipo de tu cuenta. +{{< /callout >}} + +Datadog y OpenTelemetry (OTel) utilizan convenciones de nomenclatura diferentes para métricas de integración. Esta guía explica cómo combinar métricas de ambos sistemas en una única consulta mediante la función `equiv_otel` de Datadog. + +## Retos a la hora de combinar métricas + +Cuando se trabaja tanto con métricas de Datadog como de OTel, surgen dos retos principales. Examinémoslos utilizando como ejemplo la conexión de monitorización NGINX: + +### Diferentes convenciones de nomenclatura + +Datadog y OTel manejan las mismas medidas de forma diferente: +- Datadog: `nginx.net.connections` (una métrica específica para las conexiones activas) +- OTel: `nginx.connections_current` (captura todos los estados de conexión en una única métrica) + - Requiere filtrado con `state:active` para que coincida con la métrica de conexiones activas de Datadog + +### Limitaciones de la agregación + +La simple combinación de consultas de métricas separadas puede dar lugar a resultados incorrectos. Por ejemplo, si intentas combinar estas consultas: +``` +avg:nginx.net.connections +avg:nginx.connections_current{state:active} +``` +Se obtiene una media de medias, no la media real de todas las series temporales. Esto ocurre porque las [funciones de métricas][1] tradicionales combinan los resultados de consultas separadas en lugar de tratar los datos como una única métrica. + +## Combinación de métricas con la función equiv_otel + +La función `equiv_otel` combina automáticamente las métricas equivalentes de Datadog y OTel en una sola consulta. Realiza lo siguiente: + +- Gestiona automáticamente la traducción de nombres de métrica +- Agrega correctamente todas las series temporales como una sola métrica +- Funciona bidireccionalmente (Datadog a OTel u OTel a Datadog) +- Preserva la semántica de agregación de consultas + +### Conversión de Datadog a OTel + +Para incluir el equivalente de métricas de OTel en tu consulta, envuelve tu consulta de Datadog en `equiv_otel`: + +``` +equiv_otel(avg:nginx.net.connections) +``` +Esta consulta: +1. Identifica la métrica equivalente de OTel (`nginx.connections_current{state:active}`) +2. Combina las series temporales de ambas métricas +3. Aplica la agregación (`avg`) a todos los puntos de datos + +### Conversión de OTel a Datadog + +Lo mismo funciona para incluir métricas de Datadog en una consulta de OTel: + +``` +equiv_otel(avg:nginx.connections_current{state:active}) +``` +La función sirve de la misma manera a la inversa, incluye automáticamente la métrica equivalente de Datadog (`nginx.net.connections`). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + + + +[1]: /es/dashboards/functions \ No newline at end of file diff --git a/content/es/security/cloud_siem/historical_jobs.md b/content/es/security/cloud_siem/historical_jobs.md new file mode 100644 index 0000000000000..60ad48f9dae03 --- /dev/null +++ b/content/es/security/cloud_siem/historical_jobs.md @@ -0,0 +1,47 @@ +--- +further_reading: +- link: https://www.datadoghq.com/blog/cloud-siem-historical-jobs/ + tag: Blog + text: Test retrospectivo de reglas de detección con trabajos históricos de Datadog + Cloud SIEM +title: Trabajos históricos +--- + +Los trabajos históricos permiten realizar tests retrospectivos de las detecciones comparándolas con los logs históricos almacenados en Datadog Cloud SIEM. + +A diferencia de una regla en tiempo real, un trabajo histórico no se ejecuta continuamente. Los trabajos históricos son consultas que se ejecutan una sola vez y analizan un periodo específico de datos históricos. + +Los resultados de los trabajos históricos son versiones ligeras de las señales, que proporcionan información esencial sobre posibles amenazas o anomalías identificadas en los logs históricos. + +Si se necesita una acción inmediata tras revisar los resultados generados por el trabajo histórico, puedes convertir con confianza un subconjunto de esos resultados a señales. Al convertir un resultado en señal, puedes establecer manualmente la gravedad de la señal y el destino de notificación, así como el manual de señales. + +## Ejecutar un trabajo histórico + +### Crear el trabajo + +1. Navega a la página [Cloud SIEM Detection Rules][1] (Reglas de detección de Cloud SIEM). +1. Haz clic en el menú de tres puntos situado junto a la regla que deseas probar y selecciona **Run as Historical Job** (Ejecutar como trabajo histórico). +1. Completa el formulario eligiendo el índice de log, el intervalo de tiempo, el caso de la regla y el destinatario o destinatarios de la notificación. + {{< img src="security/security_monitoring/detection_rules/historical-job-form.png" alt="Formulario de creación del Trabajo histórico" style="width:90%;" >}} +1. Haz clic en **Run Historical Job** (Ejecutar trabajo histórico). + +### Revisar los resultados del trabajo + +1. Navega a la [lista de Trabajos históricos][2]. +1. Haz clic en el trabajo histórico que has creado para abrir un panel que incluye los resultados detectados, los logs coincidentes, etc. + {{< img src="security/security_monitoring/detection_rules/historical-job-result.png" alt="El panel de resultados de un trabajo histórico" style="width:90%;" >}} + +### Convertir un resultado en una señal + +1. En la sección **Results** (Resultados) del panel de un trabajo histórico, haz clic en uno de los resultados de la lista para abrir un panel de detalles para ese resultado. +1. Haz clic en **Convert to Signal** (Convertir en señal). +1. Establece la gravedad de la señal, los destinatarios de notificación y el mensaje de descripción. + {{< img src="security/security_monitoring/detection_rules/convert-historical-job-result-to-signal.png" alt="El panel de resultados para un trabajo histórico" style="width:90%;" >}} +1. Haz clic en **Convert to Signals** (Convertir en señales). + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: https://app.datadoghq.com/security/rules +[2]: https://app.datadoghq.com/security/detections/historical-jobs \ No newline at end of file From cb4724fd254d703ec2afed8a5db32af1905d992d Mon Sep 17 00:00:00 2001 From: guacbot Date: Mon, 20 Jan 2025 01:16:06 +0000 Subject: [PATCH 26/33] Translated file updates --- .../identify-unauthorized-anomalous-procs.md | 58 +++++ .../ja/developers/dogstatsd/unix_socket.md | 101 ++++++-- content/ja/metrics/metrics-without-limits.md | 2 + .../devices/troubleshooting.md | 231 +++++++++++++----- content/ja/synthetics/api_tests/ssl_tests.md | 64 +++-- content/ja/synthetics/api_tests/udp_tests.md | 44 ++-- 6 files changed, 385 insertions(+), 115 deletions(-) create mode 100644 content/es/security/cloud_security_management/guide/identify-unauthorized-anomalous-procs.md diff --git a/content/es/security/cloud_security_management/guide/identify-unauthorized-anomalous-procs.md b/content/es/security/cloud_security_management/guide/identify-unauthorized-anomalous-procs.md new file mode 100644 index 0000000000000..b882b8ecb88fc --- /dev/null +++ b/content/es/security/cloud_security_management/guide/identify-unauthorized-anomalous-procs.md @@ -0,0 +1,58 @@ +--- +disable_toc: false +further_reading: +- link: security/threats/workload_security_rules/custom_rules + tag: Documentación + text: Creación de reglas de detección personalizadas +title: Identificación de casos no autorizados y anómalos procesos +--- + +Puedes utilizar CSM Threats para identificar si en tus sistemas informáticos se están ejecutando o se ejecutaron procesos no autorizados o anómalos. + +Por ejemplo, puedes crear una lista de procesos permitidos y buscar procesos que se ejecuten en hosts y contenedores fuera de la lista de permitidos. + +En CSM Threats, puedes [definir reglas personalizadas][1] para supervisar las ejecuciones de procesos en busca de actividad maliciosa en hosts o contenedores en tiempo real. Puedes definir una lista de nombres de procesos o argumentos que generarán una señal de seguridad que puede utilizarse para notificar a los usuarios. + +Esta guía te muestra cómo consultar procesos no autorizados y anómalos utilizando listas de permisos estáticas y dinámicas como ejemplos. + +## Detección de procesos que no están en una lista de permitidos + +Puedes crear una detección para procesos que no estén en una lista de permitidos conocida. + +He aquí un ejemplo para un host: + +```shell +exec.file.name not in [ "0anacron", "agent", "aide", "airflow", "anacron", "appstart.sh", "appstop.sh", "arping", "aws", "awslogs-nanny.sh", "basename", "bash", "blkid", "bounce", "capsh", "cat", "certwatch", "chcon", "chmod", "chown", ~"*chrony", "chronyc", ~"*chrony-dhcp", "chrony-helper", ~"*chrony-onoffline", "classification_move_archive.sh", "cleanup", "clear", "consoletype", "consul", "cp", "curl", "cut", "date", "dbus-send", "df", ~"*dhclient", "dhclient-script", "dircolors", "dirname", "dmidecode", "dnf-3", "du", "echo", "embedded_logrotate.sh", "ethtool", "file", "find", "findmnt", "flock", "gawk", "getconf", "git", "gpg", "gpg2", "gpgconf", "gpgsm", "grep", "grepconf.sh", "groupadd", "grub2-set-bootflag", "gzip", "head", "hostname", "hostnamectl", "httpd", "httpd_daily_logs_gzip.sh", "iconv", "id", "ionice", "ip", "ipcalc", "java", "java_version.sh", "jboss_66_log_rotate.sh", "ldconfig", "less", "ln", "local", "locale", "logger", "logrotate", "ls", "lsattr", "lsblk", "lscpu", "lspci", "mandb", "man-db.cron", "md5sum", "mkdir", "mktemp", "mlocate", "mon-put-instance-data.pl", "more", "moveFilesFromSourceToTarget.sh", "mv", ~"*netreport", "nice", "nm-cloud-setup", ~"*nm-cloud-setup.sh", "nm-dhcp-helper", "nm-dispatcher", "nohup", "on_ac_power", "oracle", "perl", "pickup", "pip", "postdrop", "printenv", "proxymap", "ps", "psql", "pyenv", ~"pyenv-*", ~"python*", "python2.7", "python3.9", "readlink", "renice", "rhn_check-2.7", "rhsmcertd-worker", "rm", "rmdir", "rpm", "rsync", "run-parts", "sa1", "sa2", "sadc", "sar", "_script.sh", "sed", ~"*sendmail", "sendmail.postfix", "setup-policy-routes", "sftp-server", "sg_inq", "sleep", "smtp", "smtpd", "snowsql", "sort", "sqlite3", "ssh", "sshd", "ssm-document-worker", "ssm-session-worker", "stat", "su", "sudo", "systemctl", "systemd", "systemd-coredump", ~"*systemd-environment-d-generator", "systemd-hostnamed", "systemd-networkd-wait-online", "systemd-tmpfiles", "systemd-tty-ask-password-agent", "systemd-user-runtime-dir", "systemd-userwork", "systemd-xdg-autostart-generator", "tail", "tar", "time", "tlsmgr", "touch", "tput", "tr", "trivial-rewrite", "tty", "udevadm", "uname", "unbound-anchor", "unix_chkpwd", "unzip_rename_files.sh", "updatedb", "updater", "urlgrabber-ext-down", "useradd", "usermod", "vault", "vi", "wc", "which", "wkhtmltoimage", "xargs", "yum", "ping", "get_latest_version.sh", ~"rbenv*", "uniq", "diff", "ruby", "get_hosts_for_app_component.sh", "update_health_status.rb", "check.pl", "check_all_pool_db_version.rb", ~"gitaly-git-v*", ~"gitlab-*", "upload_host_info.rb", "sshpass", ~"splunk*", "killall5", "php", "run", "env", "chpst", ~"jenkins*" ] +``` + +He aquí un ejemplo para un contenedor: + +```shell +exec.file.name not in ["vault"] && container.id == "ca5534a51dd04bbcebe9b23ba05f389466cf0c190f1f8f182d7eea92a9671d00" +``` + +El `id` de contenedor de este ejemplo genera eventos para ese contenedor solamente. + +Si deseas generar un evento para cualquier contenedor que ejecute un proceso que no sea `vault`, la expresión sería: + +```shell +exec.file.name not in ["vault"] && container.id == "" +``` + +## Detección de anomalías dinámica + +
La detección de anomalías dinámica sólo es compatible con los contenedores.
+ +Si no deseas crear una lista de permitidos al consultar procesos, puedes crear una regla personalizada para consultar los eventos que se desvían de forma dinámica. + +La consulta de la regla personalizada es `@agent.rule_id:anomaly_detection`. + +Si deseas consultar anomalías en una imagen de contenedor concreta, puedes utilizar la etiqueta `image_name`. Por ejemplo, `@agent.rule_id:anomaly_detection image_name:IMAGE_NAME`. + +{{< img src="/security/cloud_security_management/guide/csm_threats_anomaly_image_query.png" alt="consulta de anomalías en una imagen de contenedor concreta" style="width:100%;" >}} + +## Referencias adicionales + +{{< partial name="whats-next/whats-next.html" >}} + +[1]: /es/security/threats/workload_security_rules/custom_rules \ No newline at end of file diff --git a/content/ja/developers/dogstatsd/unix_socket.md b/content/ja/developers/dogstatsd/unix_socket.md index 273c87ada7cee..a6317fe5244b6 100644 --- a/content/ja/developers/dogstatsd/unix_socket.md +++ b/content/ja/developers/dogstatsd/unix_socket.md @@ -20,7 +20,7 @@ UDP は`ローカルホスト`ではたいへんよく機能しますが、コ - UDP にはエラー処理がありませんが、UDS では Agent をノンブロッキングで使用したまま、パケットの欠落や接続エラーを検出できます。 - DogStatsD がメトリクスの生成元のコンテナを検出し、それに応じてメトリクスにタグを付けることができます。 -## UDS の仕組み +## 仕組み `IP:port` ペアを使用して接続を確立する代わりに、Unix ドメインソケットは、プレースホルダーソケットファイルを使用します。いったん接続が開かれると、データは UDP と同じ[データグラム形式][1]で転送されます。Agent が再起動した場合、既存のソケットは削除され、新しいソケットに置き換わります。クライアントライブラリはこの変化を検出し、新しいソケットにシームレスに接続します。 @@ -38,6 +38,8 @@ Agent DogStatsD UDS を有効にするには {{< tabs >}} {{% tab "ホスト" %}} +
: Agent のインストールスクリプトは自動的に適切な権限を持つソケットファイルを作成し、use_dogstatsd: true および dogstatsd_socket: "/var/run/datadog/dsd.socket" がデフォルトで設定されています。
+ 1. DogStatsD がリスニングソケットとして使用するソケットファイルを作成します。例: ```shell sudo mkdir -p /var/run/datadog/ @@ -55,11 +57,10 @@ Agent DogStatsD UDS を有効にするには ## Listen for Dogstatsd metrics on a Unix Socket (*nix only). ## Set to a valid and existing filesystem path to enable. # - dogstatsd_socket: '/var/run/datadog/dsd.socket' + dogstatsd_socket: "/var/run/datadog/dsd.socket" ``` 1. [Agent を再起動します][2]。 - [1]: /ja/agent/configuration/agent-configuration-files/#agent-main-configuration-file [2]: /ja/agent/configuration/agent-commands/ {{% /tab %}} @@ -72,6 +73,49 @@ Agent DogStatsD UDS を有効にするには - `-v /var/run/datadog:/var/run/datadog` で Agent コンテナを起動します。 - `-v /var/run/datadog:/var/run/datadog:ro` でアプリケーションコンテナを起動します。 +{{% /tab %}} +{{% tab "ECS Fargate" %}} + +1. タスク定義内で、Agent コンテナの定義にある `DD_DOGSTATSD_SOCKET=` (例: `/var/run/datadog/dsd.socket`) という環境変数を使用してソケットパスを設定してください。 + +2. アプリケーションコンテナからソケットファイルにアクセスできるよう、Agent コンテナとアプリケーションコンテナの両方で共有ボリュームをマウントします。これにより、Datadog Agent コンテナから提供されるソケットをアプリケーションコンテナ側で利用できるようになります。 + + 1. タスク定義の `volumes` セクションで、空のフォルダをマウントします。 + + ```json + "volumes": [ + { + "name": "dsdsocket", + "host": {} + } + ], + ``` + + 1. Agent コンテナの `mountPoints` セクションでソケットフォルダをマウントします。 + + ```json + "mountPoints": [ + { + "containerPath": "/var/run/datadog", + "sourceVolume": "dsdsocket" + } + ], + ``` + + 1. アプリケーションコンテナの `mountPoints` セクションで、同じフォルダをアプリケーションコンテナ内に公開します。 + +
アプリケーションコンテナがソケットへの書き込み権限を必要とする場合は、"readOnly": true を削除してください。
+ + ```json + "mountPoints": [ + { + "containerPath": "/var/run/datadog", + "sourceVolume": "dsdsocket", + "readOnly": true + } + ], + ``` + {{% /tab %}} {{% tab "Kubernetes" %}} @@ -79,7 +123,7 @@ Agent DogStatsD UDS を有効にするには 2. アプリケーションコンテナ (読み取り専用) と Agent コンテナ (読み書き) の両側でホストディレクトリをマウントし、ソケットファイルをアプリケーションコンテナへアクセスできるようにします。個別のソケットではなく親フォルダーをマウントすることで、DogStatsD が再起動してもソケット通信を維持することができます。 - - `datadog-agent` コンテナでソケットフォルダーをマウントします。 + 1. `datadog-agent` コンテナでソケットフォルダーをマウントします。 ```yaml volumeMounts: @@ -92,7 +136,9 @@ Agent DogStatsD UDS を有効にするには name: dsdsocket ``` - - 同じフォルダーをアプリケーションコンテナで公開します。 + 1. 同じフォルダーをアプリケーションコンテナで公開します。 + +
アプリケーションコンテナがソケットへの書き込み権限を必要とする場合は、"readOnly": true を削除してください。
```yaml volumeMounts: @@ -106,8 +152,6 @@ Agent DogStatsD UDS を有効にするには name: dsdsocket ``` - **注**: アプリケーションコンテナでソケットへの書き込みアクセス許可が必要な場合は、 `readOnly: true` を削除してください。 - {{% /tab %}} {{% tab "EKS Fargate" %}} @@ -115,7 +159,7 @@ Agent DogStatsD UDS を有効にするには 2. アプリケーションコンテナ (読み取り専用) と Agent コンテナ (読み書き) の両側で空のディレクトリをマウントし、ソケットファイルをアプリケーションコンテナへアクセスできるようにします。個別のソケットではなく親フォルダーをマウントすることで、DogStatsD が再起動してもソケット通信を維持することができます。 - - Pod spec に空のフォルダーをマウントします。 + 1. Pod spec に空のフォルダーをマウントします。 ```yaml volumes: @@ -123,7 +167,7 @@ Agent DogStatsD UDS を有効にするには name: dsdsocket ``` - - `datadog-agent` コンテナでソケットフォルダーをマウントします。 + 1. `datadog-agent` コンテナでソケットフォルダーをマウントします。 ```yaml volumeMounts: @@ -131,7 +175,9 @@ Agent DogStatsD UDS を有効にするには mountPath: /var/run/datadog ``` - - 同じフォルダーをアプリケーションコンテナで公開します。 + 1. 同じフォルダーをアプリケーションコンテナで公開します。 + +
アプリケーションコンテナがソケットへの書き込み権限を必要とする場合は、"readOnly": true を削除してください。
```yaml volumeMounts: @@ -140,8 +186,6 @@ Agent DogStatsD UDS を有効にするには readOnly: true ``` - **注**: アプリケーションコンテナでソケットへの書き込みアクセス許可が必要な場合は、 `readOnly: true` を削除してください。 - {{% /tab %}} {{< /tabs >}} @@ -210,6 +254,35 @@ DogStatsD がコンテナ内で実行されている場合、発信点検出を [1]: /ja/getting_started/tagging/assigning_tags/#environment-variables [2]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_definition_parameters.html#task_definition_pidmode {{% /tab %}} +{{% tab "ECS Fargate" %}} + +1. タスク定義内で、Agent コンテナの定義に `DD_DOGSTATSD_ORIGIN_DETECTION` 環境変数を true として設定します。 + + ```json + { + "name": "DD_DOGSTATSD_ORIGIN_DETECTION", + "value": "true" + }, + ``` + +2. タスク定義に [PidMode パラメータ][2]を追加し、次のように `task` に設定します。 + + ```json + "pidMode": "task" + ``` + +3. 任意 - 発信点検出を使用して収集されたメトリクスに[タグカーディナリティ][1]を設定するには、環境変数 `DD_DOGSTATSD_TAG_CARDINALITY` に `low` (デフォルト)、`orchestrator`、または `high` を使用します。 + + ```json + { + "name": "DD_DOGSTATSD_TAG_CARDINALITY", + "value": "low" + }, + ``` + +[1]: /ja/getting_started/tagging/assigning_tags/#environment-variables +[2]: https://docs.aws.amazon.com/AmazonECS/latest/developerguide/task_definition_parameters.html#other_task_definition_params +{{% /tab %}} {{% tab "Kubernetes" %}} 1. Agent コンテナの環境変数 `DD_DOGSTATSD_ORIGIN_DETECTION を true に設定します。 @@ -305,7 +378,7 @@ socat -s -u UDP-RECV:8125 UNIX-SENDTO:/var/run/datadog/dsd.socket 追加の実装オプションの作成に関するガイドラインについては、[datadog-agent GitHub wiki][9] を参照してください。 -## その他の参考資料 +## 参考資料 {{< partial name="whats-next/whats-next.html" >}} @@ -317,4 +390,4 @@ socat -s -u UDP-RECV:8125 UNIX-SENDTO:/var/run/datadog/dsd.socket [6]: https://github.com/DataDog/dogstatsd-ruby#configuration [7]: https://github.com/DataDog/php-datadogstatsd [8]: https://github.com/DataDog/dogstatsd-csharp-client#unix-domain-socket-support -[9]: https://github.com/DataDog/datadog-agent/wiki/Unix-Domain-Sockets-support +[9]: https://github.com/DataDog/datadog-agent/wiki/Unix-Domain-Sockets-support \ No newline at end of file diff --git a/content/ja/metrics/metrics-without-limits.md b/content/ja/metrics/metrics-without-limits.md index a6aeb74b20497..0b35bbceb5a59 100644 --- a/content/ja/metrics/metrics-without-limits.md +++ b/content/ja/metrics/metrics-without-limits.md @@ -50,6 +50,8 @@ Metrics without LimitsTM は、アプリ内ですべてのメトリクスタイ カウント、レート、ゲージのタグを構成する場合、デフォルトで最も頻繁にクエリされる時間/空間集計の組み合わせがクエリに使用できます。 +**注**: メトリクス上でタグを管理するには、メトリクスにタイプが宣言されている必要があります。これは通常、メトリクスを送信するときに行われますが、Metrics Summary でメトリクスを選択して `Edit` ボタンから手動で設定することも可能です。 + ### 複数のメトリクスを一度に構成する [一括メトリクスタグ構成機能][7]を使用して、カスタムメトリクスのボリュームを最適化します。メトリクスのネームスペースを指定するには、Metrics Summary の **Configure Tags** をクリックします。そのネームスペースのプレフィックスに一致するすべてのメトリクスを、**Include tags...** の下にある同じ許可リストまたは **Exclude tags...** の下にある同じブロックリストで構成できます。 diff --git a/content/ja/network_monitoring/devices/troubleshooting.md b/content/ja/network_monitoring/devices/troubleshooting.md index 502666e3fe89c..ed14476702e5c 100644 --- a/content/ja/network_monitoring/devices/troubleshooting.md +++ b/content/ja/network_monitoring/devices/troubleshooting.md @@ -12,83 +12,199 @@ title: NDM トラブルシューティング Datadog Network Device Monitoring のトラブルシューティングには、以下の情報を使用してください。さらにヘルプが必要な場合は、[Datadog サポート][1]にお問い合わせください。 -## 用語 +### Datadog にデバイスが表示されない場合 + +以下の手順は、Datadog Agent v7.61.0+ を実行していることを前提としています。 + +[Devices][2] ページにデバイスが表示されない場合: + +1. [datadog-agent status][3] コマンドを実行し、snmp セクションを探します。このセクションにはデバイスの監視用 IP が含まれます。Agent を起動してから、個別に設定されているデバイスを NDM が検出するまで最大で 1 分ほどかかる場合があります。Agent が大量のデバイスをスキャンする設定になっている場合は、さらに時間がかかる可能性があります。 +出力例は次のようになります。 + + ``` + snmp + ---- + Instance ID: snmp:default:1.2.3.4.1:9a2df638d3ba38d6 [ERROR] + Configuration Source: file:/etc/datadog-agent/conf.d/snmp.d/conf.yaml + Total Runs: 1 + Metric Samples: Last Run: 6, Total: 6 + Events: Last Run: 0, Total: 0 + Network Devices Metadata: Last Run: 1, Total: 1 + Service Checks: Last Run: 1, Total: 1 + Average Execution Time : 0s + Last Execution Date : 2024-11-13 13:12:09 PST / 2024-11-13 21:12:09 UTC (1731532329000) + Last Successful Execution Date : Never + Error: + No traceback + ``` + +2. デバイスが一覧に表示されておらず、オートディスカバリーを使用している場合は、Agent がデバイスに接続できなかった可能性があります。 + + - `datadog-agent status` コマンドを実行し、`autodiscovery` セクションで利用可能なすべてのデバイス IP がスキャンされたことが報告されるまで待ちます。大規模なネットワークでは数分かかる場合があります。出力例は次のようになります。 + + ``` + Autodiscovery + ============= + Subnet 127.0.0.1/24 is queued for scanning. + No IPs found in the subnet. + Scanning subnet 127.0.10.1/30... Currently scanning IP 127.0.10.2, 4 IPs out of 4 scanned. + Found the following IP(s) in the subnet: + - 127.0.10.1 + - 127.0.10.2 + Subnet 127.0.10.1/30 scanned. + No IPs found in the subnet. + ``` -SNMP - Simple network management protocol -: ベアメタルネットワーキングギアに関する情報を収集するために使用されるネットワークプロトコル。 + オートディスカバリーが完了してもデバイスが [Devices][2] ページに表示されない場合は、Agent がデバイスに接続できなかったことを意味します。 -OID - Object identifier -: ポーリングされたときにその値の応答コードを返す、デバイス上の一意の ID またはアドレス。たとえば、OID は CPU またはデバイスのファン速度です。 + - デバイスの管理 IP に対して `snmp walk` を実行し、Agent がデバイスに接続できない理由を特定してください。 -sysOID - System object identifier -: デバイスタイプを定義する特定のアドレス。すべてのデバイスには、それを定義する一意の ID があります。 たとえば、Meraki ベースの sysOID は `1.3.6.1.4.1.29671` です。 + **注**: CLI 上で直接資格情報を指定してください。資格情報を指定しない場合、Agent は実行中の Agent コンフィギュレーションファイルから認証情報を検索します。 -MIB - Managed information base -: MIB に関連する可能性のあるすべての OID とその定義のデータベースまたはリスト。たとえば、`IF-MIB` (interface MIB) には、デバイスのインターフェースに関する説明情報のすべての OID が含まれています。 + **Linux**:
+ SNMP v2: + ``` + sudo -u dd-agent datadog-agent snmp walk -C + ``` + SNMP v3: + ``` + sudo -u dd-agent datadog-agent snmp walk -A -a -X -x + ``` + **Windows**: + ``` + agent snmp walk [:Port] -## よくあるご質問 + Example: + agent.exe snmp walk 10.143.50.30 1.3.6 + ``` -#### Datadog はどの SNMP バージョンをサポートしていますか? + これらのコマンドの詳細については、使用しているベンダー独自のドキュメントを参照してください。 -Datadog は、SNMPv1、SNMPv2、SNMPv3 の 3 つのバージョンの SNMP をすべてサポートしています。 +### SNMP エラーのトラブルシューティング -#### Datadog はデバイスを検出するためにどのプロトコルを使用しますか? +SNMP ステータスまたは Agent の walk コマンドでエラーが表示される場合、次のいずれかの問題が考えられます。 -Datadog は SNMP を使用してデバイスを検出します。検出中、SNMP ポート (デフォルトは 161) がポーリングされます。一致する応答とプロファイルがある場合、これは検出されたデバイスと見なされます。 +#### Permission denied -#### Datadog は MIB 認証を行いますか?すべての MIB を送信する必要がありますか?Python で MIB を変換するにはどうすればよいですか? +ポートバインド時に Agent のログで permission denied エラーが表示される場合、指定したポート番号には管理者権限が必要な可能性があります。ポート番号が 1024 未満の場合は、[デフォルトの SNMP Trap ポート 162 を使用する][8]を参照してください。 -Datadog Agent には MIB がありません。つまり、MIB で何かをする必要はありません。Datadog デバイスプロファイルで収集されたすべてのメトリクスは、MIB がなくても自動的に機能します。 +#### デバイスに到達できない、または設定が正しくない場合 -メトリクスまたはカスタムコンフィギュレーションを追加するには、MIB 名、テーブル名、テーブル OID、シンボル、シンボル OID をリストします。次に例を示します。 +**エラー例**: + ```plaintext + Error: check device reachable: failed: error reading from socket: read udp 127.0.0.1:46068->1.2.3.4:161 + ``` -```yaml -- MIB: EXAMPLE-MIB - table: - # メトリクスが由来するテーブルの ID。 - OID: 1.3.6.1.4.1.10 - name: exampleTable - symbols: - # 取得するシンボル ('columns') のリスト。 - # 単一の OID と同じ形式。 - # テーブルの各行はこれらのメトリクスを出力します。 - - OID: 1.3.6.1.4.1.10.1.1 - name: exampleColumn1 -``` +**対処方法**: -#### デバイスとモデルのペアがサポートされていない場合でも、Network Device Monitoring を使用できますか? + 1. デバイスにログインし、SNMP が有効になっていてポート 161 が開放されていることを確認します。 + 2. コレクターのファイアウォールが外向き通信を許可しているか確認します。 -Datadog は、すべてのデバイスから一般的なベースラインメトリクスを収集します。ベンダー MIB からのサポートされていないメトリクスがある場合は、カスタムプロファイルを作成するか、機能リクエストを [Datadog サポート][1]に送信してください。 + 3. Linux のみ (オプション) -機能リクエストを送信する場合、Datadog サポートにはリクエストされたデバイスからの `snmpwalk` が必要です。以下を実行し、出力を送信してください。 + `iptables -L OUTPUT` を実行し、deny ルールが存在しないことを確認します。 -``` -snmpwalk -O bentU -v 2c -c : 1.3.6 -``` + ``` + vagrant@agent-dev-ubuntu-22:~$ sudo iptables -L OUTPUT + Chain OUTPUT (policy ACCEPT) + target prot opt source destination + DROP all -- anywhere 10.4.5.6 + ``` + 3. コミュニティ文字列が正しいかどうか確認します。 -#### ネットワークについて収集されたメトリクスが 1 つしか表示されず、それがゼロで収集されたデバイスの数であるのはなぜですか? +#### SNMPv2 資格情報の誤り -1. デバイスの ACL/ファイアウォールルールを緩和してみてください。 -2. Agent が実行されているホストから `snmpwalk -O bentU -v 2c -c : 1.3.6` を実行します。応答なしでタイムアウトが発生する場合は、Datadog Agent がデバイスからメトリクスを収集できないように何かによってブロックされている可能性があります。 +**エラー例**: + ``` + Error: an authentication method needs to be provided + ``` -#### Datadog でサポートされているベンダーまたはデバイスタイプであるにもかかわらず、所有している特定のモデルがサポートされていない場合はどうしたらいいですか? +**対処方法**: -- [Datadog サポート][1]までご連絡の上、特定のモデルのサポートをご依頼ください。 -- 追加の `sysobjectid` 値をサポートするようプロファイルを拡張します。 - たとえば、別のタイプの Cisco CSR を監視する場合、ISR プロファイルを直接修正して、以下のように別の `sysobjectid` をリストアップします。 +SNMPv2 を使用している場合は、コミュニティ文字列が設定されていることを確認します。 - ``` - snmpwalk -v 2c -c [community string] [ip address] 1.3.6.1.2.1.1.2 - ``` +#### SNMPv3 プライバシープロトコルの誤り + +**エラー例**: + ``` + Error: check device reachable: failed: decryption error; failed to autodetect profile: failed to fetch sysobjectid: cannot get sysobjectid: decryption error; failed to fetch values: failed to fetch scalar oids with batching: failed to fetch scalar oids: fetch scalar: error getting oids `[1.3.6.1.2.1.1.1.0 1.3.6.1.2.1.1.2.0 1.3.6.1.2.1.1.3.0 1.3.6.1.2.1.1.5.0]`: decryption error + ``` + +または + + ``` + Error: check device reachable: failed: wrong digest; failed to autodetect profile: failed to fetch sysobjectid: cannot get sysobjectid: wrong digest; failed to fetch values: failed to fetch scalar oids with batching: failed to fetch scalar oids: fetch scalar: error getting oids `[1.3.6.1.2.1.1.1.0 1.3.6.1.2.1.1.2.0 1.3.6.1.2.1.1.3.0 1.3.6.1.2.1.1.5.0]`: wrong digest + ``` + +**対処方法**: + +以下の SNMPv3 構成パラメーターが正しいことを確認してください。 + - ユーザー + - authKey + - authProtocol + - privKey + - privProtocol + +### デバイスからトラップが受信されない場合 + +1. Datadog の `agent.log` ファイルを確認し、トラップ用ポートにバインドできているかを確認してください。以下のエラーは、トラップ用ポートにバインドできないことを示します。 -**注**: デバイスの `sysobjectid` が不明な場合は、インターネットで調べるか、デバイスに到達できるホストで `snmpwalk` を実行します。この結果を使用して、プロファイルをリストアップします。 + ``` + Failed to start snmp-traps server: error happened when listening for SNMP Traps: listen udp 0.0.0.0:162: bind: permission denied + ``` -#### How do I extract information about devices and interfaces of my network devices? + **対処方法**: + Agent バイナリに net bind の機能を追加し、予約済みポートにバインドできるようにします。 -- Use the [Network API][2] to extract the following information about your network devices: - * [Get the list of interfaces for your devices.][3] - - [Get the list of tags for your devices.][4] - - [Update the list of tags for your devices.][5] + ``` + sudo setcap 'cap_net_bind_service=+ep' /opt/datadog-agent/bin/agent/agent + ``` + +#### トラップの形式が不正 + +1. NDM のトラブルシューティングダッシュボードに移動します。 + + {{< img src="/network_device_monitoring/troubleshooting/ndm_troubleshooting_dashboard.png" alt="Network Device Monitoring のページでダッシュボードのドロップダウンが表示され、その中の NDM トラブルシューティング ダッシュボードがハイライトされている。" style="width:80%;" >}} + +2. Traps ウィジェットまでスクロールし、**Traps incorrectly formatted** グラフを確認します。これが 0 以外の場合は、NDM コレクター側とデバイス側の認証設定またはトラップ設定が一致していない可能性があります。 + + {{< img src="/network_device_monitoring/troubleshooting/ndm_traps_dashboard.png" alt="NDM トラブルシューティング ダッシュボードの画面で、Traps ウィジェットセクションが表示されている。" style="width:100%;" >}} + + **対処方法**: + + `datadog.yaml` ファイルで設定されている内容が、トラップを送信しているデバイス側の設定と一致しているか確認してください。 + + ``` + ## @param community_strings - list of strings - required + ## A list of known SNMP community strings that devices can use to send traps to the Agent. + ## Traps with an unknown community string are ignored. + ## Enclose the community string with single quote like below (to avoid special characters being interpreted). + ## Must be non-empty. + # + # community_strings: + # - '' + # - '' + + ## @param users - list of custom objects - optional + ## List of SNMPv3 users that can be used to listen for traps. + ## Each user can contain: + ## * user - string - The username used by devices when sending Traps to the Agent. + ## * authKey - string - (Optional) The passphrase to use with the given user and authProtocol + ## * authProtocol - string - (Optional) The authentication protocol to use when listening for traps from this user. + ## Available options are: MD5, SHA, SHA224, SHA256, SHA384, SHA512. + ## Defaults to MD5 when authKey is set. + ## * privKey - string - (Optional) The passphrase to use with the given user privacy protocol. + ## * privProtocol - string - (Optional) The privacy protocol to use when listening for traps from this user. + ## Available options are: DES, AES (128 bits), AES192, AES192C, AES256, AES256C. + ## Defaults to DES when privKey is set. + # + # users: + # - user: + # authKey: + # authProtocol: + # privKey: + # privProtocol: + ``` ## その他の参考資料 @@ -96,7 +212,10 @@ snmpwalk -O bentU -v 2c -c : 1.3.6 [1]: /ja/help -[2]: /ja/api/latest/network-device-monitoring/ -[3]: /ja/api/latest/network-device-monitoring/#get-the-list-of-interfaces-of-the-device -[4]: /ja/api/latest/network-device-monitoring/#get-the-list-of-tags-for-a-device -[5]: /ja/api/latest/network-device-monitoring/#update-the-tags-for-a-device \ No newline at end of file +[2]: https://app.datadoghq.com/infrastructure/devices +[3]: /ja/agent/configuration/agent-commands/#agent-information +[4]: /ja/api/latest/network-device-monitoring/ +[5]: /ja/api/latest/network-device-monitoring/#get-the-list-of-interfaces-of-the-device +[6]: /ja/api/latest/network-device-monitoring/#get-the-list-of-tags-for-a-device +[7]: /ja/api/latest/network-device-monitoring/#update-the-tags-for-a-device +[8]: /ja/network_monitoring/devices/snmp_traps/#using-the-default-snmp-trap-port-162 \ No newline at end of file diff --git a/content/ja/synthetics/api_tests/ssl_tests.md b/content/ja/synthetics/api_tests/ssl_tests.md index 921cbedaef300..1b2872182f645 100644 --- a/content/ja/synthetics/api_tests/ssl_tests.md +++ b/content/ja/synthetics/api_tests/ssl_tests.md @@ -33,34 +33,49 @@ SSL テストを使用すると、SSL/TLS 証明書の有効性と有効期限 SSL テストは、ネットワークの外部または内部からのテストの実行の好みに応じて、[管理ロケーション](#select-locations)と[プライベートロケーション][1]の両方から実行することができます。SSL テストは、スケジュール、オンデマンド、または [CI/CD パイプライン][2]内で直接実行することができます。 -## コンフィギュレーション +## 構成 -`SSL` テストの作成を選択した後、テストのリクエストを定義します。 +You may create a test using one of the following options: -### リクエストを定義する +- **Create a test from a template**: -1. テストを実行する **Host** と **Port** を指定します。デフォルトの SSL ポートは `443` です。 -2. **Advanced Options** (オプション) をテストに追加します。 - * **Accept self-signed certificates**: 自己署名証明書に関連するサーバーエラーをバイパスします。 - * **Fail on revoked certificate in stapled OCSP**: 証明書が OCSP ステープリングによって取り消されたとラベル付けされた場合、テストに失敗します。 - * **Timeout**: テストがタイムアウトするまでの時間を秒単位で指定します。 - * **Server Name**: TLS ハンドシェイクを開始するサーバーを指定し、サーバーが同じ IP アドレスと TCP ポート番号上の複数の可能な証明書のうちの 1 つを提示することを可能にします。デフォルトでは、このパラメータは **Host** の値で埋められています。 - * **Client certificate**: クライアント証明書 (`.crt`) と `PEM` 形式の関連する秘密キー (`.key`) をアップロードして、mTLS を介して認証します。 + 1. Hover over one of the pre-populated templates and click **View Template**. This opens a side panel displaying pre-populated configuration information, including: Test Details, Request Details, Assertions, Alert Conditions, and Monitor Settings. + 2. Click **+Create Test** to open the **Define Request** page, where you can review and edit the pre-populated configuration options. The fields presented are identical to those available when creating a test from scratch. + 3. Click **Save Details** to submit your API test.

+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Video of Synthetics API test landing page with templates" video="true" >}} - `openssl` ライブラリを使用して、証明書を変換することができます。例えば、`PKCS12` 形式の証明書を `PEM` 形式の秘密キーや証明書に変換することができます。 +- **Build a test from scratch**: - ``` - openssl pkcs12 -in .p12 -out .key -nodes -nocerts - openssl pkcs12 -in .p12 -out .cert -nokeys - ``` + 1. テストを一から作成するには、**+ Start from scratch** テンプレートをクリックし、SSL リクエストタイプを選択します。 + 1. テストを実行する **Host** と **Port** を指定します。デフォルトの SSL ポートは `443` です。 + 1. **Advanced Options** (オプション) をテストに追加します。 + * **Accept self-signed certificates**: 自己署名証明書に関連するサーバーエラーをバイパスします。 + * **Fail on revoked certificate in stapled OCSP**: 証明書が OCSP ステープリングによって取り消されたとラベル付けされた場合、テストに失敗します。 + * **Timeout**: テストがタイムアウトするまでの時間を秒単位で指定します。 + * **Server Name**: TLS ハンドシェイクを開始するサーバーを指定し、サーバーが同じ IP アドレスと TCP ポート番号上の複数の可能な証明書のうちの 1 つを提示することを可能にします。デフォルトでは、このパラメータは **Host** の値で埋められています。 + * **Client certificate**: クライアント証明書 (`.crt`) と `PEM` 形式の関連する秘密キー (`.key`) をアップロードして、mTLS を介して認証します。 -3. SSL テストに**名前**を付けます。 + `openssl` ライブラリを使用して、証明書を変換することができます。例えば、`PKCS12` 形式の証明書を `PEM` 形式の秘密キーや証明書に変換することができます。 -4. SSL テストに `env` **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 + ``` + openssl pkcs12 -in .p12 -out .key -nodes -nocerts + openssl pkcs12 -in .p12 -out .cert -nokeys + ``` - {{< img src="synthetics/api_tests/ssl_test_config.png" alt="SSL リクエストを定義する" style="width:90%;" >}} + 1. SSL テストに**名前**を付けます。 -**Test URL** をクリックして、リクエストのコンフィギュレーションをテストします。画面の右側に応答プレビューが表示されます。 + 1. SSL テストに Environment **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 + 1. **Test Certificate** をクリックして、リクエストの構成をテストします。画面の右側に応答プレビューが表示されます。

+ + {{< img src="synthetics/api_tests/synthetics_ssl_test_cert.png" alt="SSL リクエストを定義する" style="width:90%;" >}} + + 1. Click **Create Test** to submit your API test. + + + +### スニペット + +{{% synthetics-api-tests-snippets %}} ### アサーションを定義する @@ -118,7 +133,7 @@ SSL テストの URL、高度なオプション、アサーションで、[**Set : 接続がリモートサーバーによって突然閉じられました。Web サーバーにエラーが発生した、応答中にシステムが停止した、Web サーバーへの接続が失われた、などの原因が考えられます。 `DNS` -: テスト URL に対応する DNS エントリが見つかりませんでした。テスト URL の構成の誤りまたは DNS エントリの構成の誤りの原因が考えられます。 +: テスト URL に対応する DNS エントリが見つかりませんでした。原因としては、テスト URL の誤構成や DNS エントリの誤構成が考えられます。 `INVALID_REQUEST` : テストのコンフィギュレーションが無効です (URL に入力ミスがあるなど)。 @@ -140,11 +155,7 @@ SSL テストの URL、高度なオプション、アサーションで、[**Set ### アクセス制限 -アカウントに[カスタムロール][13]を使用しているお客様は、アクセス制限が利用可能です。 - -組織内の役割に基づいて、SSL テストへのアクセスを制限することができます。SSL テストを作成する際に、(ユーザーのほかに) どのロールがテストの読み取りと書き込みを行えるかを選択します。 - -{{< img src="synthetics/settings/restrict_access_1.png" alt="テストの権限の設定" style="width:70%;" >}} +{{% synthetics_grace_permissions %}} ## その他の参考資料 @@ -161,5 +172,4 @@ SSL テストの URL、高度なオプション、アサーションで、[**Set [9]: /ja/synthetics/settings/#global-variables [10]: /ja/synthetics/api_tests/errors/#ssl-errors [11]: /ja/account_management/rbac/ -[12]: /ja/account_management/rbac#custom-roles -[13]: /ja/account_management/rbac/#create-a-custom-role +[12]: /ja/account_management/rbac#custom-roles \ No newline at end of file diff --git a/content/ja/synthetics/api_tests/udp_tests.md b/content/ja/synthetics/api_tests/udp_tests.md index f5aedb108894e..e19abc8cb6852 100644 --- a/content/ja/synthetics/api_tests/udp_tests.md +++ b/content/ja/synthetics/api_tests/udp_tests.md @@ -31,21 +31,34 @@ UDP テストでは、指定したホストのポートに低レベルの UDP UDP テストは、ネットワークの外部または内部からのテストの実行の好みに応じて、[管理ロケーション](#select-locations)と[プライベートロケーション][1]の両方から実行することができます。UDP テストは、スケジュール、オンデマンド、または [CI/CD パイプライン][2]内で直接実行することができます。 -## コンフィギュレーション +## 構成 -`UDP` テストの作成を選択した後、テストのリクエストを定義します。 +You may create a test using one of the following options: -### リクエストを定義する + - **Create a test from a template**: -1. テストを実行する **Host** と **Port** を指定します。 -2. テストで送信したい文字列を入力します。 -3. テストがタイムアウトするまでの時間を秒単位で指定します (オプション)。 -4. UDP テストに**名前**を付けます。 -5. UDP テストに `env` **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 + 1. Hover over one of the pre-populated templates and click **View Template**. This opens a side panel displaying pre-populated configuration information, including: Test Details, Request Details, Assertions, Alert Conditions, and Monitor Settings. + 2. Click **+Create Test** to open the **Define Request** page, where you can review and edit the pre-populated configuration options. The fields presented are identical to those available when creating a test from scratch. + 3. Click **Save Details** to submit your API test.

+ {{< img src="getting_started/synthetics/synthetics_templates_api_video.mp4" alt="Video of Synthetics API test landing page with templates" video="true" >}} -{{< img src="synthetics/api_tests/udp_test_config.png" alt="UDP リクエストを定義する" style="width:90%;" >}} + - **Build a test from scratch**: -**Test URL** をクリックして、リクエストのコンフィギュレーションをテストします。画面の右側に応答プレビューが表示されます。 + 1. テストを一から作成するには、**+ Start from scratch** テンプレートをクリックし、`UDP` リクエストタイプを選択します。 + 1. テストを実行する **Host** と **Port** を指定します。 + 1. テストで送信したい文字列を入力します。 + 1. テストがタイムアウトするまでの時間を秒単位で指定します (オプション)。 + 1. UDP テストに**名前**を付けます。 + 1. UDP テストに Environment **タグ**とその他のタグを追加します。次に、これらのタグを使用して、[Synthetic Monitoring & Continuous Testing ページ][3]で Synthetic テストをフィルタリングできます。 + 1. **Test Host** をクリックして、リクエストの構成をテストします。画面の右側に応答プレビューが表示されます。

+ + {{< img src="synthetics/api_tests/udp_test_config_2.png" alt="UDP リクエストを定義する" style="width:90%;" >}} + + 8. Click **Create Test** to submit your API test. + +### スニペット + +{{% synthetics-api-tests-snippets %}} ### アサーションを定義する @@ -100,7 +113,7 @@ UDP テストの URL およびアサーションで、[**Settings** ページで : 接続がリモートサーバーによって突然閉じられました。Web サーバーにエラーが発生した、応答中にシステムが停止した、Web サーバーへの接続が失われた、などの原因が考えられます。 `DNS` -: テスト URL に対応する DNS エントリが見つかりませんでした。テスト URL の構成の誤りまたは DNS エントリの構成の誤りの原因が考えられます。 +: テスト URL に対応する DNS エントリが見つかりませんでした。原因としては、テスト URL の誤構成や DNS エントリの誤構成が考えられます。 `INVALID_REQUEST` : テストのコンフィギュレーションが無効です (URL に入力ミスがあるなど)。 @@ -119,11 +132,7 @@ UDP テストの URL およびアサーションで、[**Settings** ページで ### アクセス制限 -アカウントに[カスタムロール][11]を使用しているお客様は、アクセス制限が利用可能です。 - -組織内の役割に基づいて、UDP テストへのアクセスを制限することができます。UDP テストを作成する際に、(ユーザーのほかに) どのロールがテストの読み取りと書き込みを行えるかを選択します。 - -{{< img src="synthetics/settings/restrict_access_1.png" alt="テストの権限の設定" style="width:70%;" >}} +{{% synthetics_grace_permissions %}} ## その他の参考資料 @@ -138,5 +147,4 @@ UDP テストの URL およびアサーションで、[**Settings** ページで [7]: /ja/synthetics/settings/#global-variables [8]: /ja/synthetics/guide/synthetic-test-monitors [9]: /ja/account_management/rbac/ -[10]: /ja/account_management/rbac#custom-roles -[11]: /ja/account_management/rbac/#create-a-custom-role +[10]: /ja/account_management/rbac#custom-roles \ No newline at end of file From 90a3a01046886ec1e79e7dcb97b4dcaf46a48db7 Mon Sep 17 00:00:00 2001 From: guacbot Date: Mon, 20 Jan 2025 03:16:01 +0000 Subject: [PATCH 27/33] Translated file updates --- .../powershell_metrics_submission.md | 16 ++++++++++++---- .../browser/troubleshooting.md | 8 +++++++- 2 files changed, 19 insertions(+), 5 deletions(-) diff --git a/content/ja/metrics/custom_metrics/powershell_metrics_submission.md b/content/ja/metrics/custom_metrics/powershell_metrics_submission.md index 2a3677af1c8ee..8bda9d45b4a5e 100644 --- a/content/ja/metrics/custom_metrics/powershell_metrics_submission.md +++ b/content/ja/metrics/custom_metrics/powershell_metrics_submission.md @@ -4,6 +4,10 @@ aliases: - /ja/developers/faq/submitting-metrics-via-powershell - /ja/developers/metrics/powershell_metrics_submission/ - /ja/metrics/powershell_metrics_submission +further_reading: +- link: /api/latest/metrics/ + tag: API + text: メトリクス API エンドポイント title: 'メトリクス送信: PowerShell' --- @@ -40,7 +44,7 @@ function postMetric($metric,$tags) { $app_key = "" #有効なアプリキーを指定します $api_key = "" #有効な API キーを指定します $url_base = "https://app.datadoghq.com/" -$url_signature = "api/v1/series" +$url_signature = "api/v2/series" $url = $url_base + $url_signature + "?api_key=$api_key" + "&" + "application_key=$app_key" $tags = "[env:test]" #オプションのパラメーター @@ -131,7 +135,7 @@ $http_request.responseText ```powershell $http_method = "POST" - $url_signature = "api/v1/series" + $url_signature = "api/v2/series" $currenttime = (Get-Date -date ((get-date).ToUniversalTime()) -UFormat %s) -Replace("[,\.]\d*", "") @@ -149,9 +153,13 @@ $http_request.responseText [その他のコード例については、ncracker/dd_metric GitHub リポジトリを参照してください][6]。 +## 参考資料 + +{{< partial name="whats-next/whats-next.html" >}} + [1]: https://app.datadoghq.com/organization-settings/api-keys [2]: /ja/metrics/custom_metrics/dogstatsd_metrics_submission/ [3]: https://developer.mozilla.org/en-US/docs/Web/API/XMLHttpRequest -[4]: /ja/api/v1/hosts/ -[5]: /ja/api/v1/metrics/ +[4]: /ja/api/latest/hosts/ +[5]: /ja/api/latest/metrics/ [6]: https://github.com/ncracker/dd_metric \ No newline at end of file diff --git a/content/ja/real_user_monitoring/browser/troubleshooting.md b/content/ja/real_user_monitoring/browser/troubleshooting.md index 6b82b9e7bb42d..f376e0fab7df3 100644 --- a/content/ja/real_user_monitoring/browser/troubleshooting.md +++ b/content/ja/real_user_monitoring/browser/troubleshooting.md @@ -130,6 +130,10 @@ Chromium ベースのブラウザで、RUM ブラウザ SDK が Datadog イン インテークが空でない JSON オブジェクトを返すため、警告が表示されます。この動作は、報告されている [Chromium の問題][8]です。RUM ブラウザ SDK に影響を与えるものではないので、無視しても問題ありません。 +## “Deobfuscation failed” の警告 + +スタックトレースの難読化解除に失敗した場合、この警告が表示されます。スタックトレースが最初から難読化されていない場合は、この警告は無視しても問題ありません。それ以外の場合は、[RUM Debug Symbols ページ][14]を使用してアップロード済みのすべてのソースマップを確認してください。詳しくは、[RUM Debug Symbols を用いた難読化スタックトレースの調査][15]をご覧ください。 + ## その他の参考資料 {{< partial name="whats-next/whats-next.html" >}} @@ -146,4 +150,6 @@ Chromium ベースのブラウザで、RUM ブラウザ SDK が Datadog イン [10]: /ja/real_user_monitoring/browser/advanced_configuration/?tab=npm#global-context [11]: /ja/real_user_monitoring/browser/advanced_configuration/?tab=npm#user-session [12]: /ja/real_user_monitoring/guide/setup-feature-flag-data-collection/?tab=browser -[13]: /ja/real_user_monitoring/browser/setup/#initialization-parameters \ No newline at end of file +[13]: /ja/real_user_monitoring/browser/setup/#initialization-parameters +[14]: https://app.datadoghq.com/source-code/setup/rum +[15]: /ja/real_user_monitoring/guide/debug-symbols \ No newline at end of file From 53cae6269b68274d4829b9169a2e71b56ee434ce Mon Sep 17 00:00:00 2001 From: guacbot Date: Mon, 20 Jan 2025 09:16:05 +0000 Subject: [PATCH 28/33] Translated file updates --- data/partials/platforms.es.yaml | 138 ++++++++++++++++---------------- 1 file changed, 69 insertions(+), 69 deletions(-) diff --git a/data/partials/platforms.es.yaml b/data/partials/platforms.es.yaml index b5f0fd1b64188..77bfb0b8754f4 100644 --- a/data/partials/platforms.es.yaml +++ b/data/partials/platforms.es.yaml @@ -24,130 +24,130 @@ gs: link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos name: rockylinux - image: platform_almalinux.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=centos + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=CentOS name: almalinux -- image: platform_fedora.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=fedora +- image: plataforma_fedora.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Fedora name: fedora -- image: platform_suse.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=suse +- image: plataforma_suse.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=SUSE name: suse -- image: platform_aix.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=aix +- image: plataforma_aix.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=aix name: aix -- image: platform_coreos.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=coreos +- image: plataforma_coreos.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=coreos name: coreos -- image: platform_docker.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=docker +- image: plataforma_docker.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Docker name: docker -- image: platform_kubernetes.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=kubernetes +- image: plataforma_kubernetes.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Kubernetes name: kubernetes -- image: platform_openshift.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=openshift +- image: plataforma_openshift.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=openshift name: openshift -- image: platform_chef.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=chef +- image: plataforma_chef.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=chef name: chef -- image: platform_puppet.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=puppet +- image: plataforma_marioneta.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=puppet name: marioneta -- image: platform_ansible.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=ansible +- image: plataforma_ansible.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=ansible name: ansible -- image: platform_cloud_foundry.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=cloud_foundry +- image: plataforma_nube_fundición.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=cloud_foundry name: cloud_foundry -- image: platform_saltstack.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=saltstack +- image: plataforma_saltstack.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=saltstack name: salt -- image: platform_heroku.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=heroku +- image: plataforma_heroku.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=Heroku name: heroku -- image: platform_fromsource.png - link: https://app.datadoghq.com/account/settings/agent/latest?platform=source +- image: plataforma_fromsource.png + link: https://app.datadoghq.com/account/settings/Agent/latest?platform=source name: fuente platforms: - category: Linux - image: platform_aix.png - link: agent/basic_agent_usage/aix/ + image: plataforma_aix.png + link: Agent/uso_agente_basico/aix/ name: aix - category: Linux - image: platform_almalinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_almalinux.png + link: Agent/uso_agente_basico/CentOS/ name: almalinux - category: Linux - image: platform_amazonlinux.png - link: agent/basic_agent_usage/amazonlinux/ + image: plataforma_amazonlinux.png + link: Agent/uso_agente_basico/amazonlinux/ name: amazonlinux - category: configuration_management - image: platform_ansible.png - link: agent/basic_agent_usage/ansible/ + image: plataforma_ansible.png + link: Agent/uso_agente_basico/ansible/ name: ansible - category: Linux - image: platform_centos.png - link: agent/basic_agent_usage/centos/ + image: plataforma_centos.png + link: Agent/uso_agente_basico/CentOS/ name: centos - category: configuration_management - image: platform_chef.png - link: agent/basic_agent_usage/chef/ + image: plataforma_chef.png + link: Agent/uso_agente_basico/chef/ name: chef - category: Linux - image: platform_debian.png - link: agent/basic_agent_usage/deb/ + image: plataforma_debian.png + link: Agent/uso_del_agente_basico/deb/ name: deb - category: cloud_and_container - image: platform_docker.png - link: agent/docker/ + image: plataforma_docker.png + link: Agent/Docker/ name: docker - category: Linux - image: platform_fedora.png - link: agent/basic_agent_usage/fedora/ + image: plataforma_fedora.png + link: Agent/uso_agente_basico/Fedora/ name: fedora - category: cloud_and_container - image: platform_heroku.png - link: agent/basic_agent_usage/heroku/ + image: plataforma_heroku.png + link: Agent/uso_agente_basico/Heroku/ name: heroku - category: cloud_and_container - image: platform_kubernetes.png - link: agent/kubernetes/ + image: plataforma_kubernetes.png + link: Agent/Kubernetes/ name: kubernetes - category: macOS - image: platform_macos.png - link: agent/basic_agent_usage/osx/ + image: plataforma_macos.png + link: Agent/uso_agente_basico/osx/ name: osx - category: Linux - image: platform_oracle.png - link: agent/basic_agent_usage/oracle/ + image: plataforma_oracle.png + link: Agent/uso_agente_basico/oracle/ name: Oracle - category: configuration_management - image: platform_puppet.png - link: agent/basic_agent_usage/puppet/ + image: plataforma_marioneta.png + link: Agent/uso_agente_basico/puppet/ name: puppet - category: Linux - image: platform_redhat.png - link: agent/basic_agent_usage/redhat/ + image: plataforma_redhat.png + link: Agent/uso_agente_basico/redhat/ name: redhat - category: Linux - image: platform_rockylinux.png - link: agent/basic_agent_usage/centos/ + image: plataforma_rockylinux.png + link: Agent/uso_agente_basico/CentOS/ name: rockylinux - category: configuration_management - image: platform_saltstack.png - link: agent/basic_agent_usage/saltstack/ + image: plataforma_saltstack.png + link: Agent/uso_agente_basico/saltstack/ name: salt - category: Linux - image: platform_suse.png - link: agent/basic_agent_usage/suse/ + image: plataforma_suse.png + link: Agent/uso_agente_basico/SUSE/ name: suse - category: Linux - image: platform_ubuntu.png - link: agent/basic_agent_usage/ubuntu/ + image: plataforma_ubuntu.png + link: Agent/uso_agente_basico/Ubuntu/ name: ubuntu - category: Windows - image: platform_windows.png - link: agent/basic_agent_usage/windows/ + image: plataforma_windows.png + link: Agent/uso_agente_basico/Windows/ name: windows - category: Windows image: platform_sccm.png From 00c5664801d2d4b8d5f3f5937f9e4fb427fadc1b Mon Sep 17 00:00:00 2001 From: guacbot Date: Mon, 20 Jan 2025 11:16:02 +0000 Subject: [PATCH 29/33] Translated file updates From 0f830af530c2e3abe485f7aacbd35a7df478e5af Mon Sep 17 00:00:00 2001 From: guacbot Date: Mon, 20 Jan 2025 13:16:01 +0000 Subject: [PATCH 30/33] Translated file updates --- .../es/ddsql_editor/reference/statements.md | 194 ++++++++++++++++++ 1 file changed, 194 insertions(+) create mode 100644 content/es/ddsql_editor/reference/statements.md diff --git a/content/es/ddsql_editor/reference/statements.md b/content/es/ddsql_editor/reference/statements.md new file mode 100644 index 0000000000000..94b5b5071c6f9 --- /dev/null +++ b/content/es/ddsql_editor/reference/statements.md @@ -0,0 +1,194 @@ +--- +aliases: +- /es/dashboards/ddsql_editor/reference/statements/ +title: Sentencias DDSQL +--- + +{{< callout url="https://datadoghq.com/private-beta/ddsql-editor">}} +DDSQL está en vista previa. +{{< /callout >}} + +## SELECT + +`SELECT` recupera filas de una tabla o vista. + +### Sintaxis + +{{< code-block lang="text" >}} +SELECT [ ALL | DISTINCT ] select_expr, ... +[ FROM rel_source + [ EVENT_SEARCH 'message_pattern' ] + [ USE EVENT_INDEX 'index_name' ] + [ [ join_type ] JOIN rel_source ... + [ ON condition | USING (column, ... ) ] ] ... ] +[ WHERE condition ] +[ GROUP BY [ ALL | DISTINCT ] expression, ... ] +[ HAVING condition, ... ] +[ ORDER BY expression, ... [ ASC | DESC ] [ NULLS FIRST | NULLS LAST ] ] +[ LIMIT [ ALL | expression ] + [ OFFSET expression ] ] +{{< /code-block >}} + +#### Tipos de parámetros + +`select_expr` +: cualquier expresión que devuelva un valor. Puede ser una constante, una llamada a función, un agregado, una ventana o la expresión especial `*`. Es la parte de la consulta que especifica la salida de la sentencia SELECT, y en álgebra relacional se conoce como proyección. + +`message_pattern` +: un patrón textual para la [búsqueda de texto completo][1], cuando esté disponible. + +`index_name` +: un identificador para un [índice de logs][2]. + +`rel_source` +: una correlación (un nombre de tabla o alias) o una [expresión DQL][3] entre paréntesis. + +`join_type` +: el tipo de unión SQL, como `INNER` o `LEFT`. Las uniones `INNER` son totalmente compatibles. Las uniones `OUTER` y `CROSS` pueden requerir una condición `WHERE`. Las uniones `LEFT` y `RIGHT` también son compatibles si la condición es una expresión *equijoin*: una comparación de igualdad como ` = ` en la que las expresiones hacen referencia a columnas de tablas diferentes y los tipos de salida de ambas expresiones son los mismos. También funciona una expresión `USING` `JOIN` que se refiera a una sola columna. + +`condition` +: una expresión que se evalúa e interpreta implícitamente como si tuviera un resultado booleano. + +`expression` +: una expresión de valor. Consulta [Expresiones y operadores][4] para obtener más detalles y ejemplos. + +### Evaluación + +SELECT recupera filas de cero o más tablas. El procesamiento general de SELECT es el siguiente: + +1. Se calculan todos los elementos de `FROM`. Si se especifica más de un elemento, se unen utilizando el tipo de unión especificado. +2. Si se especifica la cláusula `WHERE`, las filas que no cumplan la condición se eliminan de la salida. +3. Si se especifica la cláusula `GROUP BY` o hay llamadas a la función agregada en `selectExpr`, la salida se combina en grupos de filas que coinciden en uno o más valores, y se calculan los agregados. Si `HAVING` está presente, las filas que no satisfacen su condición se eliminan de la salida. +4. Las filas de salida reales se calculan utilizando `selectExpr`. +5. `SELECT DISTINCT` elimina las filas duplicadas del resultado. +6. Si se especifica la cláusula `ORDER BY`, las filas devueltas se ordenan en el orden especificado. +7. Si se especifica la cláusula `LIMIT` o `OFFSET`, se eliminan las filas que no estén en el subconjunto especificado. + +El sistema puede ejecutar la consulta de cualquier forma que asegure la obtención de los resultados especificados por este orden. + +## Alias + +Los alias son nombres sustitutivos de expresiones de salida o elementos `FROM`. Un alias se utiliza por brevedad o para eliminar la ambigüedad de las autouniones (cuando la misma tabla se explora varias veces). + +{{< code-block lang="sql" >}} +SELECT * FROM my_long_hosts_table_name as hosts +{{< /code-block >}} + +Cuando se proporciona un alias en un elemento `FROM`, éste oculta completamente el nombre real de la tabla o función. En el ejemplo anterior, el resto de la expresión DQL debe referirse a `my_long_hosts_table_name` como `hosts`. + +## Ordinales + +`GROUP BY` y `ORDER BY` pueden ser nombres de columnas, expresiones arbitrarias formadas a partir de columnas de entrada o el nombre o número ordinal de una expresión de salida (una expresión `SELECT` ). Los ordinales de las expresiones de salida se indexan en 1. + +Por ejemplo, la salida de esta consulta se ordena primero por `ex3`, luego `ex2` y después `ex1`: + +{{< code-block lang="sql" >}} +SELECT ex1, ex2, ex3 FROM table ORDER BY 3, 2, 1; +{{< /code-block >}} + +## UNION + +`UNION` combina los resultados de dos o más [expresiones DQL][3] en una única tabla de salida. + +### Sintaxis + +{{< code-block lang="text" >}} +DQL_expression UNION [ ALL ] DQL_expression ... +[ ORDER BY expressions [ ASC | DESC ] ] +[ LIMIT [ ALL | expression ] + [ OFFSET expression] ] +{{< /code-block >}} + +#### Tipos de parámetros + +`DQL_expression` +: una sentencia de consulta, por ejemplo, `SELECT`. + +El operador `UNION` elimina las filas duplicadas del resultado. Para conservar las filas duplicadas, utiliza `UNION ALL`: + +{{< code-block lang="sql" >}} +SELECT host_key, CAST(service AS text) AS service, 'from resources' FROM host +UNION ALL +SELECT message, service AS text, 'from logs' FROM logs WHERE env='prod' +ORDER BY service LIMIT 200 OFFSET 10; +{{< /code-block >}} + +Todas las subconsultas de una `UNION` deben tener el mismo esquema de salida. Una consulta que contenga una consulta `UNION` sólo puede tener una expresión `ORDER BY` y `LIMIT`, y ambas deben aparecer al final. Las `UNION`encadenadas sólo pueden tener una expresión `ORDER BY` y `LIMIT` al final. + +## WITH + +`WITH` permite escribir sentencias auxiliares para utilizarlas en una consulta más amplia. + +Las sentencias`WITH`, que también suelen denominarse expresiones de tabla comunes o CTE, pueden considerarse como la definición de tablas temporales que existen para una consulta. Cada sentencia auxiliar de una cláusula `WITH` puede ser cualquier [expresión DQL][3], y la propia cláusula `WITH` se adjunta a una sentencia primaria que también puede ser cualquier expresión DQL que no sea`WITH`. Las sentencias auxiliares posteriores pueden hacer referencia a correlaciones con alias en sentencias auxiliares anteriores. + +### Sintaxis + +{{< code-block lang="sql" >}} +WITH alias [ ( output, schema, column, names, ... ) ] AS ( DQL_expression ) [, ...] DQL_expression +{{< /code-block >}} + +#### Tipos de parámetros + +`DQL_expression` +: una sentencia de consulta, por ejemplo, `SELECT`. + +Las sentencias de modificación de datos como `INSERT`, `UPDATE` y `DELETE` no son compatibles con `WITH`. + +Cada consulta de alias también puede especificar su esquema de salida y los nombres de las columnas. + +## CREATE + +DDSQL permite a los usuarios crear tablas temporales, insertar en ellas, consultarlas y hacer referencia a ellas. Estas tablas no se conservan entre sesiones. + +### Sintaxis + +{{< code-block lang="sql" >}} +CREATE TABLE name ( + column_name column_type + [ PRIMARY KEY [ AUTOINCREMENT ] | NOT NULL | UNIQUE | DEFAULT expression ] ... +) +{{< /code-block >}} + +## INSERT + +La sentencia `INSERT` de DDSQL sigue el estándar SQL. DDSQL sólo permite a los usuarios insertar en tablas temporales que se crean con la sentencia `CREATE`, no en orígenes de datos descendentes. + +### Sintaxis + +{{< code-block lang="sql" >}} +INSERT INTO table_name [ (specific, columns, ...) ] VALUES + ( value1, value2, ... ), + ( value1, value2, ... ), + ... +{{< /code-block >}} + +## SHOW + +
Mientras que la sentencia SHOW forma parte del estándar SQL, los nombres de los parámetros en tiempo de ejecución son experimentales. Los parámetros pueden cambiar de nombre, reescribirse o quedar obsoletos en el futuro.
+ +Al ejecutar consultas, DDSQL hace referencia a parámetros de tiempo de ejecución (variables de entorno) que no se especifican en la propia sentencia de consulta, como el intervalo predeterminado que se utilizará para las consultas de métricas si no se especifica `BUCKET BY`, o la marca de hora de inicio y fin de una consulta. + +La sentencia `SHOW` muestra los valores de estas variables. + +### Sintaxis + +{{< code-block lang="sql" >}} +SHOW (ALL | parameter) +{{< /code-block >}} + +`SHOW ALL` muestra todos los parámetros de ejecución disponibles en el sistema DDSQL, y `SHOW ` muestra sólo el parámetro especificado. + +## SET + +Para modificar un parámetro en tiempo de ejecución, utiliza la sentencia `SET`. + +### Sintaxis + +{{< code-block lang="sql" >}} +SET variableName = expression +{{< /code-block >}} + +[1]: /es/logs/explorer/search_syntax/#full-text-search +[2]: /es/logs/log_configuration/indexes/ +[3]: /es/ddsql_editor/#use-sql-syntax-ddsql +[4]: /es/ddsql_editor/reference/expressions_and_operators \ No newline at end of file From 9a189289caa9fb870c2c78b88ca9a661a352b802 Mon Sep 17 00:00:00 2001 From: Kari Halsted Date: Mon, 20 Jan 2025 10:37:33 -0600 Subject: [PATCH 31/33] fix yaml --- content/es/integrations/go_expvar.md | 118 +++++++++++++-------------- 1 file changed, 59 insertions(+), 59 deletions(-) diff --git a/content/es/integrations/go_expvar.md b/content/es/integrations/go_expvar.md index 886f3d1c9d430..62a1a49b8501b 100644 --- a/content/es/integrations/go_expvar.md +++ b/content/es/integrations/go_expvar.md @@ -1,63 +1,63 @@ --- -"app_id": "expvar-go" -"app_uuid": "cac5ebe3-fa36-49f7-93c5-22116c745e80" -"assets": - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": "go_expvar.memstats.alloc" - "metadata_path": "metadata.csv" - "prefix": "expvar-go". - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "77" - "source_type_name": "Expvar Go" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "languages" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/go_expvar/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "expvar-go" -"integration_id": "expvar-go" -"integration_title": "Expvar Go" -"integration_version": "4.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "expvar-go" -"public_title": "Expvar Go" -"short_description": "Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go." -"supported_os": -- "linux" -- "macos" -- "windows" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Supported OS::Linux" - - "Supported OS::macOS" - - "Supported OS::Windows" - - "Category::Lenguajes" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go." - "media": [] - "overview": "README.md#Información general" - "resources": - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog" - "support": "README.md#Soporte" - "title": "Expvar Go" +app_id: expvar-go +app_uuid: cac5ebe3-fa36-49f7-93c5-22116c745e80 +assets: + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: go_expvar.memstats.alloc + metadata_path: metadata.csv + prefix: expvar-go. + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 77 + source_type_name: Expvar Go +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- languages +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/go_expvar/README.md +display_on_public_website: true +draft: false +git_integration_title: expvar-go +integration_id: expvar-go +integration_title: Expvar Go +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: expvar-go +public_title: Expvar Go +short_description: Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Lenguajes + - Offering::Integración + configuration: README.md#Configuración + description: Recopila métricas instrumentadas por Expvar y estadísticas de memoria de tu servicio Go. + media: [] + overview: README.md#Información general + resources: + - resource_type: blog + url: https://www.datadoghq.com/blog/instrument-go-apps-expvar-datadog + support: README.md#Soporte + title: Expvar Go --- From f953e3609e2f22d66f4518b9c99992f324e8f5e0 Mon Sep 17 00:00:00 2001 From: Kari Halsted Date: Mon, 20 Jan 2025 11:01:07 -0600 Subject: [PATCH 32/33] fix yaml --- content/es/integrations/gitlab.md | 148 +++++++-------- content/es/integrations/kyototycoon.md | 128 ++++++------- content/es/integrations/marathon.md | 128 ++++++------- content/es/integrations/php.md | 54 +++--- content/es/integrations/postgres.md | 182 +++++++++---------- content/es/integrations/powerdns_recursor.md | 134 +++++++------- content/es/integrations/ruby.md | 60 +++--- content/es/integrations/servicenow.md | 58 +++--- content/es/integrations/xmatters.md | 98 +++++----- 9 files changed, 495 insertions(+), 495 deletions(-) diff --git a/content/es/integrations/gitlab.md b/content/es/integrations/gitlab.md index 6795663bba18f..85b3c7568c8f8 100644 --- a/content/es/integrations/gitlab.md +++ b/content/es/integrations/gitlab.md @@ -1,78 +1,78 @@ --- -"app_id": "gitlab" -"app_uuid": "3d165411-7734-4f72-b39a-f222add296b2" -"assets": - "dashboards": - "Gitlab Overview": "assets/dashboards/overview.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": - - "gitlab.process_max_fds" - - "gitlab.ruby.process_start_time_seconds" - "metadata_path": "metadata.csv" - "prefix": "gitlab." - "process_signatures": - - "gitlab-kas" - - "gitlab-workhorse" - - "gitlab-ctl" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "10026" - "source_type_name": "Gitlab" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "collaboration" -- "developer tools" -- "issue tracking" -- "log collection" -- "source control" -"custom_kind": "integration" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/gitlab/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "gitlab" -"integration_id": "gitlab" -"integration_title": "GitLab" -"integration_version": "9.0.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "gitlab" -"public_title": "GitLab" -"short_description": "Track all your GitLab metrics with Datadog." -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Collaboration" - - "Category::Developer Tools" - - "Category::Issue Tracking" - - "Category::Log Collection" - - "Category::Source Control" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - - "Submitted Data Type::Metrics" - - "Submitted Data Type::Logs" - - "Offering::Integration" - "configuration": "README.md#Setup" - "description": "Track all your GitLab metrics with Datadog." - "media": [] - "overview": "README.md#Overview" - "support": "README.md#Support" - "title": "GitLab" +app_id: gitlab +app_uuid: 3d165411-7734-4f72-b39a-f222add296b2 +assets: + dashboards: + Gitlab Overview: assets/dashboards/overview.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - gitlab.process_max_fds + - gitlab.ruby.process_start_time_seconds + metadata_path: metadata.csv + prefix: gitlab. + process_signatures: + - gitlab-kas + - gitlab-workhorse + - gitlab-ctl + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 10026 + source_type_name: Gitlab +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- collaboration +- developer tools +- issue tracking +- log collection +- source control +custom_kind: integration +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/gitlab/README.md +display_on_public_website: true +draft: false +git_integration_title: gitlab +integration_id: gitlab +integration_title: GitLab +integration_version: 9.0.0 +is_public: true +manifest_version: 2.0.0 +name: gitlab +public_title: GitLab +short_description: Track all your GitLab metrics with Datadog. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Collaboration + - Category::Developer Tools + - Category::Issue Tracking + - Category::Log Collection + - Category::Source Control + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Submitted Data Type::Metrics + - Submitted Data Type::Logs + - Offering::Integration + configuration: README.md#Setup + description: Track all your GitLab metrics with Datadog. + media: [] + overview: README.md#Overview + support: README.md#Support + title: GitLab --- diff --git a/content/es/integrations/kyototycoon.md b/content/es/integrations/kyototycoon.md index 5e2d20bac1502..ca42ebda059bd 100644 --- a/content/es/integrations/kyototycoon.md +++ b/content/es/integrations/kyototycoon.md @@ -1,68 +1,68 @@ --- -"app_id": "kyoto-tycoon" -"app_uuid": "5cc7578e-8f8e-43c3-890a-4360581634e7" -"assets": - "dashboards": - "kyototycoon": "assets/dashboards/kyototycoon_dashboard.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": "kyototycoon.records" - "metadata_path": "metadata.csv" - "prefix": "kyototycoon." - "process_signatures": - - "ktserver" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "62" - "source_type_name": "Kyoto Tycoon" - "saved_views": - "kyoto-tycoon_processes": "assets/saved_views/kyoto-tycoon_processes.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "data stores" -- "log collection" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/kyototycoon/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "kyototycoon" -"integration_id": "kyoto-tycoon" -"integration_title": "Kyoto Tycoon" -"integration_version": "4.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "kyototycoon" -"public_title": "Kyoto Tycoon" -"short_description": "Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación". -"supported_os": -- "linux" -- "macos" -- "windows" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Supported OS::Linux" - - "Supported OS::macOS" - - "Supported OS::Windows" - - "Category::Almacenes de datos" - - "Category::Recopilación de logs" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación". - "media": [] - "overview": "README.md#Información general" - "support": "README.md#Soporte" - "title": "Kyoto Tycoon" +app_id: kyoto-tycoon +app_uuid: 5cc7578e-8f8e-43c3-890a-4360581634e7 +assets: + dashboards: + kyototycoon: assets/dashboards/kyototycoon_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: kyototycoon.records + metadata_path: metadata.csv + prefix: kyototycoon. + process_signatures: + - ktserver + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 62 + source_type_name: Kyoto Tycoon + saved_views: + kyoto-tycoon_processes: assets/saved_views/kyoto-tycoon_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- data stores +- log collection +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/kyototycoon/README.md +display_on_public_website: true +draft: false +git_integration_title: kyototycoon +integration_id: kyoto-tycoon +integration_title: Kyoto Tycoon +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: kyototycoon +public_title: Kyoto Tycoon +short_description: Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación. +supported_os: +- linux +- macos +- windows +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Supported OS::Windows + - Category::Almacenes de datos + - Category::Recopilación de logs + - Offering::Integración + configuration: README.md#Configuración + description: Realiza un seguimiento de las operaciones get, set, delete y monitoriza los retrasos de replicación. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Kyoto Tycoon --- diff --git a/content/es/integrations/marathon.md b/content/es/integrations/marathon.md index 1e8e347d9cee9..9383f7261e8a5 100644 --- a/content/es/integrations/marathon.md +++ b/content/es/integrations/marathon.md @@ -1,68 +1,68 @@ --- -"app_id": "marathon" -"app_uuid": "fe9a038e-3948-4646-9a1c-ea1f1cc59977" -"assets": - "dashboards": - "marathon-overview": "assets/dashboards/marathon-overview_dashboard.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": "marathon.apps" - "metadata_path": "metadata.csv" - "prefix": "marathon". - "process_signatures": - - "start --master mesos marathon" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "82" - "source_type_name": "Marathon" - "saved_views": - "marathon_processes": "assets/saved_views/marathon_processes.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "configuration & deployment" -- "containers" -- "log collection" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/marathon/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "marathon" -"integration_id": "marathon" -"integration_title": "Marathon" -"integration_version": "4.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "marathon" -"public_title": "Marathon" -"short_description": "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más". -"supported_os": -- "linux" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Supported OS::Linux" - - "Supported OS::macOS" - - "Category::Configuración y despliegue" - - "Category::Contenedores" - - "Category::Recopilación de logs" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más". - "media": [] - "overview": "README.md#Información general" - "support": "README.md#Soporte" - "title": "Marathon" +app_id: marathon +app_uuid: fe9a038e-3948-4646-9a1c-ea1f1cc59977 +assets: + dashboards: + marathon-overview: assets/dashboards/marathon-overview_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: marathon.apps + metadata_path: metadata.csv + prefix: marathon. + process_signatures: + - start --master mesos marathon + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 82 + source_type_name: Marathon + saved_views: + marathon_processes: assets/saved_views/marathon_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- configuration & deployment +- containers +- log collection +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/marathon/README.md +display_on_public_website: true +draft: false +git_integration_title: marathon +integration_id: marathon +integration_title: Marathon +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: marathon +public_title: Marathon +short_description: Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más. +supported_os: +- linux +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Supported OS::Linux + - Supported OS::macOS + - Category::Configuración y despliegue + - Category::Contenedores + - Category::Recopilación de logs + - Offering::Integración + configuration: README.md#Configuración + description: Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Marathon --- diff --git a/content/es/integrations/php.md b/content/es/integrations/php.md index aceb18ea9bad2..c940dca5a54e0 100644 --- a/content/es/integrations/php.md +++ b/content/es/integrations/php.md @@ -1,31 +1,31 @@ --- -"categories": -- "languages" -- "log collection" -- "tracing" -"custom_kind": "integration" -"dependencies": [] -"description": "Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP." -"doc_link": "https://docs.datadoghq.com/integrations/php/" -"draft": false -"further_reading": -- "link": "https://www.datadoghq.com/blog/monitor-php-performance/" - "tag": "Blog" - "text": "Monitorización de PHP con Datadog APM y rastreo distribuido." -- "link": "https://www.datadoghq.com/blog/php-logging-guide/" - "tag": "Blog" - "text": "Cómo recopilar, personalizar y analizar logs de PHP." -"git_integration_title": "php" -"has_logo": true -"integration_id": "php" -"integration_title": "PHP" -"integration_version": "" -"is_public": true -"manifest_version": "1.0" -"name": "php" -"public_title": "Integración de Datadog y PHP" -"short_description": "Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP." -"version": "1.0" +categories: +- languages +- log collection +- tracing +custom_kind: integration +dependencies: [] +description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP. +doc_link: https://docs.datadoghq.com/integrations/php/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitor-php-performance/ + tag: Blog + text: Monitorización de PHP con Datadog APM y rastreo distribuido. +- link: https://www.datadoghq.com/blog/php-logging-guide/ + tag: Blog + text: Cómo recopilar, personalizar y analizar logs de PHP. +git_integration_title: php +has_logo: true +integration_id: php +integration_title: PHP +integration_version: +is_public: true +manifest_version: 1.0 +name: php +public_title: Integración de Datadog y PHP +short_description: Recopila métricas, trazas, logs y datos de perfil de tus aplicaciones PHP. +version: 1.0 --- diff --git a/content/es/integrations/postgres.md b/content/es/integrations/postgres.md index 6eaa2263b3e9d..9051993d03e98 100644 --- a/content/es/integrations/postgres.md +++ b/content/es/integrations/postgres.md @@ -1,95 +1,95 @@ --- -"app_id": "postgres" -"app_uuid": "e6b3c5ec-b293-4a22-9145-277a12a9abd4" -"assets": - "dashboards": - "postgresql": "assets/dashboards/postgresql_dashboard.json" - "postgresql_screenboard": "assets/dashboards/postgresql_screenboard_dashboard.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": - - "postgresql.connections" - - "postgresql.max_connections" - "metadata_path": "metadata.csv" - "prefix": "postgresql." - "process_signatures": - - "postgres -D" - - "pg_ctl start -l logfile" - - "postgres -c 'pg_ctl start -D -l" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "28" - "source_type_name": "Postgres" - "monitors": - "Connection pool is reaching saturation point": "assets/monitors/percent_usage_connections.json" - "Replication delay is high": "assets/monitors/replication_delay.json" - "saved_views": - "operations": "assets/saved_views/operations.json" - "postgres_pattern": "assets/saved_views/postgres_pattern.json" - "postgres_processes": "assets/saved_views/postgres_processes.json" - "sessions_by_host": "assets/saved_views/sessions_by_host.json" - "slow_operations": "assets/saved_views/slow_operations.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "data stores" -- "log collection" -- "notifications" -- "tracing" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/postgres/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "postgres" -"integration_id": "postgres" -"integration_title": "Postgres" -"integration_version": "22.0.1" -"is_public": true -"manifest_version": "2.0.0" -"name": "postgres" -"public_title": "Postgres" -"short_description": "Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos." -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Almacenes de datos" - - "Category::Recopilación de logs" - - "Category::Notificaciones" - - "Category::Rastreo" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos." - "media": [] - "overview": "README.md#Información general" - "resources": - - "resource_type": "documentación" - "url": "https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/postgresql-monitoring" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/postgresql-monitoring-tools" - - "resource_type": "blog" - "url": "https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog" - "support": "README.md#Soporte" - "title": "Postgres" +app_id: postgres +app_uuid: e6b3c5ec-b293-4a22-9145-277a12a9abd4 +assets: + dashboards: + postgresql: assets/dashboards/postgresql_dashboard.json + postgresql_screenboard: assets/dashboards/postgresql_screenboard_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: + - postgresql.connections + - postgresql.max_connections + metadata_path: metadata.csv + prefix: postgresql. + process_signatures: + - postgres -D + - pg_ctl start -l logfile + - postgres -c 'pg_ctl start -D -l + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 28 + source_type_name: Postgres + monitors: + Connection pool is reaching saturation point: assets/monitors/percent_usage_connections.json + Replication delay is high: assets/monitors/replication_delay.json + saved_views: + operations: assets/saved_views/operations.json + postgres_pattern: assets/saved_views/postgres_pattern.json + postgres_processes: assets/saved_views/postgres_processes.json + sessions_by_host: assets/saved_views/sessions_by_host.json + slow_operations: assets/saved_views/slow_operations.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- data stores +- log collection +- notifications +- tracing +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/postgres/README.md +display_on_public_website: true +draft: false +git_integration_title: postgres +integration_id: postgres +integration_title: Postgres +integration_version: 22.0.1 +is_public: true +manifest_version: 2.0.0 +name: postgres +public_title: Postgres +short_description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Almacenes de datos + - Category::Recopilación de logs + - Category::Notificaciones + - Category::Rastreo + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integración + configuration: README.md#Configuración + description: Recopila una importante cantidad de métricas del rendimiento y el estado de las bases de datos. + media: [] + overview: README.md#Información general + resources: + - resource_type: documentación + url: https://docs.datadoghq.com/integrations/faq/postgres-custom-metric-collection-explained/ + - resource_type: blog + url: https://www.datadoghq.com/blog/100x-faster-postgres-performance-by-changing-1-line + - resource_type: blog + url: https://www.datadoghq.com/blog/postgresql-monitoring + - resource_type: blog + url: https://www.datadoghq.com/blog/postgresql-monitoring-tools + - resource_type: blog + url: https://www.datadoghq.com/blog/collect-postgresql-data-with-datadog + support: README.md#Soporte + title: Postgres --- diff --git a/content/es/integrations/powerdns_recursor.md b/content/es/integrations/powerdns_recursor.md index ecd3da1c1856f..c0e26779d86bc 100644 --- a/content/es/integrations/powerdns_recursor.md +++ b/content/es/integrations/powerdns_recursor.md @@ -1,71 +1,71 @@ --- -"app_id": "powerdns" -"app_uuid": "44e491e1-f7c3-447a-b597-e740196479e0" -"assets": - "dashboards": - "powerdns": "assets/dashboards/powerdns_dashboard.json" - "integration": - "auto_install": true - "configuration": - "spec": "assets/configuration/spec.yaml" - "events": - "creates_events": false - "metrics": - "check": "powerdns.recursor.questions" - "metadata_path": "metadata.csv" - "prefix": "powerdns." - "process_signatures": - - "pdns_server" - - "systemctl start pdns@" - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "144" - "source_type_name": "PowerDNS Recursor" - "saved_views": - "powerdns_processes": "assets/saved_views/powerdns_processes.json" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "caching" -- "log collection" -- "network" -"custom_kind": "integración" -"dependencies": -- "https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/README.md" -"display_on_public_website": true -"draft": false -"git_integration_title": "powerdns_recursor" -"integration_id": "powerdns" -"integration_title": "Power DNS Recursor" -"integration_version": "4.1.0" -"is_public": true -"manifest_version": "2.0.0" -"name": "powerdns_recursor" -"public_title": "Power DNS Recursor" -"short_description": "Vigila el tráfico extraño hacia y desde tus Power DNS Recursors". -"supported_os": -- "linux" -- "windows" -- "macos" -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Caché" - - "Category::Recopilación de logs" - - "Category::Red" - - "Supported OS::Linux" - - "Supported OS::Windows" - - "Supported OS::macOS" - - "Offering::Integración" - "configuration": "README.md#Configuración" - "description": "Vigila el tráfico extraño hacia y desde tus Power DNS Recursors". - "media": [] - "overview": "README.md#Información general" - "support": "README.md#Soporte" - "title": "Power DNS Recursor" +app_id: powerdns +app_uuid: 44e491e1-f7c3-447a-b597-e740196479e0 +assets: + dashboards: + powerdns: assets/dashboards/powerdns_dashboard.json + integration: + auto_install: true + configuration: + spec: assets/configuration/spec.yaml + events: + creates_events: false + metrics: + check: powerdns.recursor.questions + metadata_path: metadata.csv + prefix: powerdns. + process_signatures: + - pdns_server + - systemctl start pdns@ + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 144 + source_type_name: PowerDNS Recursor + saved_views: + powerdns_processes: assets/saved_views/powerdns_processes.json +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- caching +- log collection +- network +custom_kind: integración +dependencies: +- https://github.com/DataDog/integrations-core/blob/master/powerdns_recursor/README.md +display_on_public_website: true +draft: false +git_integration_title: powerdns_recursor +integration_id: powerdns +integration_title: Power DNS Recursor +integration_version: 4.1.0 +is_public: true +manifest_version: 2.0.0 +name: powerdns_recursor +public_title: Power DNS Recursor +short_description: Vigila el tráfico extraño hacia y desde tus Power DNS Recursors. +supported_os: +- linux +- windows +- macos +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Caché + - Category::Recopilación de logs + - Category::Red + - Supported OS::Linux + - Supported OS::Windows + - Supported OS::macOS + - Offering::Integración + configuration: README.md#Configuración + description: Vigila el tráfico extraño hacia y desde tus Power DNS Recursors. + media: [] + overview: README.md#Información general + support: README.md#Soporte + title: Power DNS Recursor --- diff --git a/content/es/integrations/ruby.md b/content/es/integrations/ruby.md index c6a1fba0aa02d..ffac3af8e479d 100644 --- a/content/es/integrations/ruby.md +++ b/content/es/integrations/ruby.md @@ -1,34 +1,34 @@ --- -"categories": -- "languages" -- "log collection" -- "tracing" -"custom_kind": "integration" -"dependencies": [] -"description": "Envía métricas personalizadas desde tus aplicaciones de Ruby con las bibliotecas de cliente de Datadog." -"doc_link": "https://docs.datadoghq.com/integrations/ruby/" -"draft": false -"further_reading": -- "link": "https://www.datadoghq.com/blog/monitoring-rails-with-datadog/" - "tag": "Blog" - "text": "Monitorización de aplicaciones de Rails con Datadog" -- "link": "https://www.datadoghq.com/blog/managing-rails-logs-with-datadog/" - "tag": "Blog" - "text": "Recopilación y monitorización de logs de Rails con Datadog" -- "link": "https://www.datadoghq.com/blog/managing-rails-application-logs/" - "tag": "Blog" - "text": "Cómo recopilar, personalizar y gestionar logs de aplicaciones de Rails" -"git_integration_title": "ruby" -"has_logo": true -"integration_id": "ruby" -"integration_title": "Ruby" -"integration_version": "" -"is_public": true -"manifest_version": "1.0" -"name": "ruby" -"public_title": "Integración de Datadog y Ruby" -"short_description": "Envía métricas personalizadas desde tus aplicaciones de Ruby con las bibliotecas de cliente de Datadog." -"version": "1.0" +categories: +- languages +- log collection +- tracing +custom_kind: integration +dependencies: [] +description: Envía métricas personalizadas desde tus aplicaciones de Ruby con las bibliotecas de cliente de Datadog. +doc_link: https://docs.datadoghq.com/integrations/ruby/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/monitoring-rails-with-datadog/ + tag: Blog + text: Monitorización de aplicaciones de Rails con Datadog +- link: https://www.datadoghq.com/blog/managing-rails-logs-with-datadog/ + tag: Blog + text: Recopilación y monitorización de logs de Rails con Datadog +- link: https://www.datadoghq.com/blog/managing-rails-application-logs/ + tag: Blog + text: Cómo recopilar, personalizar y gestionar logs de aplicaciones de Rails +git_integration_title: ruby +has_logo: true +integration_id: ruby +integration_title: Ruby +integration_version: +is_public: true +manifest_version: 1.0 +name: ruby +public_title: Integración de Datadog y Ruby +short_description: Envía métricas personalizadas desde tus aplicaciones de Ruby con las bibliotecas de cliente de Datadog. +version: 1.0 --- diff --git a/content/es/integrations/servicenow.md b/content/es/integrations/servicenow.md index e91526c3c6ca5..b9fba0d6bbd4f 100644 --- a/content/es/integrations/servicenow.md +++ b/content/es/integrations/servicenow.md @@ -1,33 +1,33 @@ --- -"categories": -- "alerting" -- "incidents" -- "issue tracking" -- "notifications" -"custom_kind": "integration" -"dependencies": [] -"description": "Haz que tus alertas de Datadog generen y actualicen automáticamente los tiques." -"doc_link": "https://docs.datadoghq.com/integrations/servicenow/" -"draft": false -"further_reading": -- "link": "https://www.datadoghq.com/blog/create-servicenow-tickets-from-datadog-alerts/" - "tag": "Blog" - "text": "Crear tiques de ServiceNow a partir de alertas de Datadog" -- "link": "https://www.datadoghq.com/blog/servicenow-cmdb-it-management-datadog/" - "tag": "Blog" - "text": "Gestiona tu infraestructura con ServiceNow CMDB y Datadog" -"git_integration_title": "servicenow" -"has_logo": true -"integration_id": "" -"integration_title": "ServiceNow" -"integration_version": "" -"is_public": true -"manifest_version": "1.0" -"name": "servicenow" -"public_title": "Integración de Datadog y ServiceNow" -"short_description": "Haz que tus alertas de Datadog generen y actualicen automáticamente los tiques." -"team": "integraciones web" -"version": "1.0" +categories: +- alerting +- incidents +- issue tracking +- notifications +custom_kind: integration +dependencies: [] +description: Haz que tus alertas de Datadog generen y actualicen automáticamente los tiques. +doc_link: https://docs.datadoghq.com/integrations/servicenow/ +draft: false +further_reading: +- link: https://www.datadoghq.com/blog/create-servicenow-tickets-from-datadog-alerts/ + tag: Blog + text: Crear tiques de ServiceNow a partir de alertas de Datadog +- link: https://www.datadoghq.com/blog/servicenow-cmdb-it-management-datadog/ + tag: Blog + text: Gestiona tu infraestructura con ServiceNow CMDB y Datadog +git_integration_title: servicenow +has_logo: true +integration_id: +integration_title: ServiceNow +integration_version: +is_public: true +manifest_version: 1.0 +name: servicenow +public_title: Integración de Datadog y ServiceNow +short_description: Haz que tus alertas de Datadog generen y actualicen automáticamente los tiques. +team: integraciones web +version: 1.0 --- diff --git a/content/es/integrations/xmatters.md b/content/es/integrations/xmatters.md index e1ae7d2d4c831..c83a4e2d5ff28 100644 --- a/content/es/integrations/xmatters.md +++ b/content/es/integrations/xmatters.md @@ -1,53 +1,53 @@ --- -"app_id": "xmatters" -"app_uuid": "fff150f0-a26a-48eb-a16b-21e426e6835e" -"assets": - "integration": - "auto_install": true - "events": - "creates_events": true - "service_checks": - "metadata_path": "assets/service_checks.json" - "source_type_id": !!int "164" - "source_type_name": "xMatters" -"author": - "homepage": "https://www.datadoghq.com" - "name": "Datadog" - "sales_email": "info@datadoghq.com" - "support_email": "help@datadoghq.com" -"categories": -- "event management" -- "collaboration" -- "incidents" -- "notifications" -"custom_kind": "integración" -"dependencies": [] -"display_on_public_website": true -"draft": false -"git_integration_title": "xmatters" -"integration_id": "xmatters" -"integration_title": "xMatters" -"integration_version": "" -"is_public": true -"manifest_version": "2.0.0" -"name": "xmatters" -"public_title": "xMatters" -"short_description": "Utiliza xMatters como canal de notificación en las alertas y eventos de Datadog" -"supported_os": [] -"tile": - "changelog": "CHANGELOG.md" - "classifier_tags": - - "Category::Event Management" - - "Category::Collaboration" - - "Category::Incidents" - - "Category::Notifications" - - "Offering::Integration" - "configuration": "README.md#Setup" - "description": "Utiliza xMatters como canal de notificación en las alertas y eventos de Datadog" - "media": [] - "overview": "README.md#Overview" - "support": "README.md#Support" - "title": "xMatters" +app_id: xmatters +app_uuid: fff150f0-a26a-48eb-a16b-21e426e6835e +assets: + integration: + auto_install: true + events: + creates_events: true + service_checks: + metadata_path: assets/service_checks.json + source_type_id: !!int 164 + source_type_name: xMatters +author: + homepage: https://www.datadoghq.com + name: Datadog + sales_email: info@datadoghq.com + support_email: help@datadoghq.com +categories: +- event management +- collaboration +- incidents +- notifications +custom_kind: integración +dependencies: [] +display_on_public_website: true +draft: false +git_integration_title: xmatters +integration_id: xmatters +integration_title: xMatters +integration_version: +is_public: true +manifest_version: 2.0.0 +name: xmatters +public_title: xMatters +short_description: Utiliza xMatters como canal de notificación en las alertas y eventos de Datadog +supported_os: [] +tile: + changelog: CHANGELOG.md + classifier_tags: + - Category::Event Management + - Category::Collaboration + - Category::Incidents + - Category::Notifications + - Offering::Integration + configuration: README.md#Setup + description: Utiliza xMatters como canal de notificación en las alertas y eventos de Datadog + media: [] + overview: README.md#Overview + support: README.md#Support + title: xMatters --- From b5c9cea90bfa26badb7372582f47ce4d1abc3d89 Mon Sep 17 00:00:00 2001 From: Kari Halsted Date: Mon, 20 Jan 2025 11:14:29 -0600 Subject: [PATCH 33/33] fix more yaml --- content/es/integrations/marathon.md | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/content/es/integrations/marathon.md b/content/es/integrations/marathon.md index 9383f7261e8a5..601276a7eba8f 100644 --- a/content/es/integrations/marathon.md +++ b/content/es/integrations/marathon.md @@ -44,7 +44,7 @@ is_public: true manifest_version: 2.0.0 name: marathon public_title: Marathon -short_description: Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más. +short_description: "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más." supported_os: - linux - macos @@ -58,7 +58,7 @@ tile: - Category::Recopilación de logs - Offering::Integración configuration: README.md#Configuración - description: Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más. + description: "Rastrea las métricas de las aplicaciones: memoria y disco necesarios, recuento de instancias y mucho más." media: [] overview: README.md#Información general support: README.md#Soporte