La presente investigación analiza el papel de OpenTelemetry como estándar emergente para la observabilidad en sistemas distribuidos y su potencial integración con algoritmos de aprendizaje automático (ML).
A partir de una revisión documental, se identifican los desafíos actuales en la recolección, procesamiento y aprovechamiento de datos de telemetría, así como los límites de las herramientas tradicionales en entornos dinámicos y con requerimientos de rendimiento.
Se discuten estudios recientes que evidencian cómo la calidad de los datos recolectados influye directamente en la capacidad diagnóstica de los sistemas, y se analizan propuestas que incorporan modelos predictivos para mejorar la trazabilidad y anticipar cuellos de botella.
La investigación concluye que, si bien OpenTelemetry ofrece una base sólida para la instrumentación estandarizada, su aprovechamiento pleno en tareas de predicción y optimización requerirá configuraciones adaptativas, técnicas de muestreo estratégicas y una integración más estrecha con modelos de ML.
El estudio propone líneas futuras de investigación orientadas al diseño de arquitecturas observables inteligentes, capaces de responder en tiempo real a las condiciones del entorno distribuido.