Nota
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare ad accedere o modificare le directory.
L'accesso a questa pagina richiede l'autorizzazione. È possibile provare a modificare le directory.
La memoria consente agli agenti di intelligenza artificiale di memorizzare informazioni precedenti nella conversazione o nelle conversazioni precedenti. Ciò consente agli agenti di fornire risposte in grado di conoscere il contesto e di creare esperienze personalizzate nel tempo. Usare Databricks Lakebase, un database OLTP Postgres completamente gestito, per gestire lo stato e la cronologia della conversazione.
Requisiti
- Abilitare Le app di Databricks nell'area di lavoro. Vedere Configurare l'area di lavoro e l'ambiente di sviluppo di Databricks Apps.
- Un'istanza di Lakebase, vedere Creare e gestire un'istanza del database.
Memoria a breve termine e a lungo termine
La memoria a breve termine acquisisce il contesto in una singola sessione di conversazione, mentre la memoria a lungo termine estrae e archivia le informazioni chiave in più conversazioni. È possibile costruire l'agente con uno o entrambi i tipi di memoria.
| Memoria a breve termine | Memoria a lungo termine |
|---|---|
| Acquisire il contesto in una singola sessione di conversazione utilizzando gli ID di thread e il checkpointing Mantenere il contesto per le domande di follow-up all'interno di una sessione |
Estrarre e archiviare automaticamente approfondimenti chiave tra più sessioni Personalizzare le interazioni in base alle preferenze precedenti Creare una knowledge base sugli utenti che migliorano le risposte nel tempo |
Inizia subito
Per creare un agente con memoria in Databricks Apps, clonare un modello di app predefinito e seguire il flusso di lavoro di sviluppo descritto in Creare un agente di intelligenza artificiale e distribuirlo nelle app. I modelli seguenti illustrano come aggiungere memoria a breve termine e a lungo termine agli agenti usando framework diffusi.
LangGraph
Clonare il modello agent-langgraph-advanced per creare un agente LangGraph con memoria a breve termine e a lungo termine. Il modello usa il checkpointing integrato di LangGraph con Lakebase per la gestione durevole dello stato, incluso il contesto di conversazione basato su thread e gli insight utente persistenti tra le sessioni.
git clone https://github.com/databricks/app-templates.git
cd app-templates/agent-langgraph-advanced
OpenAI Agents SDK
Clonare il modello agent-openai-advanced per compilare un agente usando OpenAI Agents SDK con memoria a breve termine. Il modello usa Lakebase per la gestione dello stato durevole, abilitando conversazioni a più turni con stato con gestione automatica della cronologia delle conversazioni.
git clone https://github.com/databricks/app-templates.git
cd app-templates/agent-openai-advanced
Distribuire e interrogare il tuo agente
Dopo aver configurato l'agente con memoria, seguire i passaggi descritti in Creare un agente di intelligenza artificiale e distribuirlo nelle app per eseguire l'agente in locale, valutarlo e distribuirlo in Databricks Apps.