• /
  • EnglishEspañol日本語한국어Português
  • Inicia sesiónComenzar ahora

Te ofrecemos esta traducción automática para facilitar la lectura.

En caso de que haya discrepancias entre la versión en inglés y la versión traducida, se entiende que prevalece la versión en inglés. Visita esta página para obtener más información.

Crea una propuesta

Integración de monitoreo de Google VertexAI

La integración de New Relic incluye una integración para informar sus datos de ejecución de GCP a nuestros productos. Aquí explicamos cómo activar la integración y qué datos recopila.

Activar la integración

Para habilitar la integración, siga los procedimientos estándar para conectar su servicio GCP a New Relic.

Configuración y sondeo

Puede cambiar la frecuencia de sondeo y filtrar datos usando las opciones de configuración.

Información de sondeo predeterminada para la integración de GCP Run:

  • New Relic intervalo de sondeo: 5 minutos

Buscar y utilizar datos

Para encontrar sus datos de integración, vaya a one.newrelic.com > All capabilities > Infrastructure > GCP y seleccione una integración.

Los datos se adjuntan a los siguientes tipos de eventos:

Entidad

Tipo de evento

Proveedor

Extremo

GcpVertexAiEndpointSample

GcpVertexAiEndpoint

Tienda caracteristica

GcpVertexAiFeaturestoreSample

GcpVertexAiFeaturestore

Tienda característica online

GcpVertexAiFeatureOnlineStoreSample

GcpVertexAiFeatureOnlineStore

Ubicación

GcpVertexAiLocationSample

GcpVertexAiLocation

Índice

GcpVertexAiIndexSample

GcpVertexAiIndex

PipelineJob

GcpVertexAiPipelineJobSample

GcpVertexAiPipelineJob

Para obtener más información sobre cómo utilizar sus datos, consulte Comprender y utilizar los datos de integración.

Datos métricos

Esta integración recopila datos de GCP para VertexAI.

Datos extremos de VertexAI

Métrica

Unidad

Descripción

prediction.online.accelerator.duty_cycle

Por ciento

Fracción de tiempo promedio durante el último periodo de muestra durante el cual los aceleradores estuvieron procesando activamente.

prediction.online.accelerator.memory.bytes_used

Bytes

Cantidad de memoria aceleradora asignada por la réplica del modelo de despliegue.

prediction.online.error_count

Contar

Número de errores de predicción en línea.

prediction.online.memory.bytes_used

Bytes

Cantidad de memoria asignada por la réplica del modelo de despliegue y actualmente en uso.

prediction.online.network.received_bytes_count

Bytes

Número de bytes recibidos a través de la red por la réplica del modelo de desplegar.

prediction.online.network.sent_bytes_count

Bytes

Número de bytes enviados a través de la red por la réplica del modelo de desplegar.

prediction.online.prediction_count

Contar

Número de predicciones en línea.

prediction.online.prediction_latencies

Milisegundos

Latencia de predicción online del modelo desplegar.

prediction.online.private.prediction_latencies

Milisegundos

Latencia de predicción online del modelo privado desplegar.

prediction.online.replicas

Contar

Número de réplicas activas empleadas por el modelo desplegar.

prediction.online.response_count

Contar

Número de códigos de respuesta de predicción en línea diferentes.

prediction.online.target_replicas

Contar

Número objetivo de réplicas activas necesarias para el modelo de despliegue.

Datos de VertexAI Featurestore

Métrica

Unidad

Descripción

featurestore.cpu_load

Por ciento

La carga promedio de CPU para un nodo en el almacenamiento en línea de Featurestore.

featurestore.cpu_load_hottest_node

Por ciento

La carga de CPU para el nodo más activo en el almacenamiento en línea de Featurestore.

featurestore.node_count

Contar

La cantidad de nodos para el almacenamiento en línea de Featurestore.

featurestore.online_entities_updated

Contar

Número de entidad actualizada en el almacenamiento en línea de Featurestore.

featurestore.online_serving.latencies

Milisegundos

Latencia de servicio online por EntityType.

featurestore.online_serving.request_bytes_count

Bytes

Tamaño de la solicitud por EntityType.

featurestore.online_serving.request_count

Contar

Recuento de servicios en línea de Featurestore por EntityType.

featurestore.online_serving.response_size

Bytes

Tamaño de respuesta por EntityType.

featurestore.storage.billable_processed_bytes

Bytes

Número de bytes facturados por datos fuera de línea procesados.

featurestore.storage.stored_bytes

Bytes

Bytes almacenados en Featurestore.

featurestore.streaming_write.offline_processed_count

Contar

Número de solicitudes de escritura en streaming procesadas para almacenamiento sin conexión.

featurestore.streaming_write.offline_write_delays

Segundos

Tiempo (en segundos) desde que se llama a la API de escritura hasta que se escribe en el almacenamiento fuera de línea.

Datos de VertexAI FeatureOnlineStore

Métrica

Unidad

Descripción

featureonlinestore.online_serving.request_count

Contar

Número de recuento de porciones por FeatureView.

featureonlinestore.online_serving.serving_bytes_count

Bytes

Tamaño de respuesta de publicación por FeatureView.

featureonlinestore.online_serving.serving_latencies

Milisegundos

Latencia de servicio en línea mediante FeatureView.

featureonlinestore.running_sync

Milisegundos

Número de sincronizaciones en ejecución en un momento determinado.

featureonlinestore.serving_data_ages

Segundos

Medida de la antigüedad de los datos de servicio en segundos.

featureonlinestore.serving_data_by_sync_time

Contar

Desglose de datos en Feature Online Store por timestamp sincronizada.

featureonlinestore.storage.bigtable_cpu_load

Por ciento

La carga promedio de CPU de los nodos en Feature Online Store.

featureonlinestore.storage.bigtable_cpu_load_hottest_node

Por ciento

La carga de CPU del nodo más caliente en Feature Online Store.

featureonlinestore.storage.bigtable_nodes

Contar

El número de nodos de Feature Online Store(Bigtable).

featureonlinestore.storage.stored_bytes

Contar

Bytes almacenados en Feature Online Store.

Datos de ubicación de VertexAI

Métrica

Unidad

Descripción

online_prediction_requests_per_base_model

Contar

Número de solicitudes por modelo base.

quota.online_prediction_requests_per_base_model.exceeded

Contar

Número de intentos de superar el límite de la métrica de cuota.

quota.online_prediction_requests_per_base_model.limit

Contar

Límite actual de la métrica de cuota.

quota.online_prediction_requests_per_base_model.usage

Contar

Uso actual en la métrica de cuota.

executing_vertexai_pipeline_jobs

Contar

Número de trabajos de canalización que se ejecutan.

executing_vertexai_pipeline_tasks

Contar

Número de tareas de canalización que se ejecutan.

Datos del índice VertexAI

Métrica

Unidad

Descripción

matching_engine.stream_update.datapoint_count

Contar

Número de puntos de datos insertados o eliminados correctamente.

matching_engine.stream_update.latencies

Milisegundos

La latencia entre el usuario recibe una UpsertDatapointsResponse o RemoveDatapointsResponse y esa actualización surte efecto.

matching_engine.stream_update.request_count

Contar

Número de solicitudes de actualización de flujo.

Datos del trabajo de pipeline de VertexAI

Métrica

Unidad

Descripción

pipelinejob.duration

Segundos

Segundos de tiempo de ejecución del trabajo de canalización que se ejecuta (desde la creación hasta el final).

pipelinejob/task_completed_count

Contar

Número total de tareas de canalización completadas.

Copyright © 2025 New Relic Inc.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.