Remarques
Cette sortie de l'agent Python ajoute la prise en charge des éléments suivants :
- Brins
- AWS Bedrock Converse Streaming
- Méthodes Redis
hybrid_searchetmsetex - Attributions de rôles LangChain pour l'événement LLM
- LLM événement horodatage capturé au moment de la demande LLM
loop_factoryparamètre dansasyncio.Runner
Cette mise à jour corrige également un bug dans l'instrumentation ASGI où les en-têtes ne sont pas signalés par le serveur web.
Installez l'agent en utilisant easy_install/pip/distribute via l' index des packagesPython , en utilisant conda via l' index des packages Conda-Forge, ou téléchargez-le directement depuis le site de téléchargement de New Relic.
Caractéristiques
Ajout de la prise en charge de Strands
- Ajouter des instruments pour les outils et agents Strands dans des configurations mono-agent et multi-agents (essaims, graphes, etc.).
Ajout de la prise en charge du streaming Converse sur AWS Bedrock
- Ajout de la prise en charge monitoring pour l'API Converse en streaming. Cela inclut la prise en charge des appels de complétion de chat Converse effectués avec les clients boto3 et aioboto3 utilisant
converse_stream().
- Ajout de la prise en charge monitoring pour l'API Converse en streaming. Cela inclut la prise en charge des appels de complétion de chat Converse effectués avec les clients boto3 et aioboto3 utilisant
Ajout de la prise en charge des méthodes Redis
Ajouter la prise en charge des méthodes suivantes :
hybrid_searchmsetex
Ajouter la prise en charge de
loop_factorydansasyncio.Runner- Dans Python 3.11, la classe
asyncio.Runnera été ajoutée ainsi que le paramètreloop_factory. Le paramètreloop_factoryfournit un remplacement pour les politiques de boucle. La boucle ainsi créée est désormais instrumentée, que ce soit via un paramètre de boucle d'événements global ou une boucle d'événements personnalisée.
- Dans Python 3.11, la classe
Capturer les attributions de rôles LangChain dans un événement LLM
- L'événement LangChain
LlmChatCompletionMessagecontient désormais le rôle attribué par LangChain.
- L'événement LangChain
Capture de l'horodatage de l'événement LLM au moment de la requête LLM
- Auparavant, la date et l'heure de l'événement LLM étaient enregistrées au moment de sa création. Désormais, cette information est saisie avec plus de précision au moment de la demande de LLM.
Débogage
consommation d'en-tête ASGI
- Lorsqu'un
ASGIWebTransactionconsomme les en-têtes d'un événementhttp.response.start, il le fait sans tenir compte des types d'entrée autorisés. Lorsque les en-têtes sont un générateur, le générateur a été consommé par l'appel àprocess_response()ne laissant aucun en-tête à envoyer au serveur Web. Ce problème est maintenant résolu.
- Lorsqu'un
Déclaration de soutien
Nous vous recommandons de mettre à jour vers la dernière version de l'agent dès qu'elle est disponible. Si vous ne pouvez pas effectuer la mise à niveau vers la dernière version, mettez à jour vos agents vers une version datant de moins de 90 jours. En savoir plus sur la façon de tenir les agents informés.
Consultez la politique EOL de l'agent Python de New Relic pour obtenir des informations sur la sortie de l'agent et les dates de support.