Táto príručka bude ilustrovať proces používania vyrovnávacej pamäte tokenov konverzácie v LangChain.
Ako používať vyrovnávaciu pamäť tokenov konverzácie v LangChain?
The ConversationTokenBufferMemory knižnicu je možné importovať z rámca LangChain na uloženie najnovších správ do vyrovnávacej pamäte. Tokeny možno nakonfigurovať tak, aby obmedzili počet správ uložených vo vyrovnávacej pamäti a staršie správy sa automaticky vyprázdnia.
Ak sa chcete naučiť proces používania vyrovnávacej pamäte tokenov konverzácie v LangChain, použite nasledujúcu príručku:
Krok 1: Nainštalujte moduly
Najprv nainštalujte rámec LangChain obsahujúci všetky požadované moduly pomocou príkazu pip:
pip install langchain
Teraz nainštalujte modul OpenAI na vytvorenie LLM a reťazcov pomocou metódy OpenAI():
pip install openai
Po inštalácii modulov jednoducho použite kľúč API OpenAI nastaviť prostredie pomocou knižníc OS a getpass:
importovať vyimportovať getpass
vy . približne [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )
Krok 2: Použitie vyrovnávacej pamäte tokenu konverzácie
Zostavte LLM pomocou metódy OpenAI() po importovaní ConversationTokenBufferMemory knižnica z rámca LangChain:
od langchain. Pamäť importovať ConversationTokenBufferMemoryod langchain. llms importovať OpenAI
llm = OpenAI ( )
Nakonfigurujte pamäť na nastavenie tokenu, vymaže staré správy a uloží ich do vyrovnávacej pamäte. Potom si uložte správy z konverzácie a získajte tie najnovšie, aby ste ich mohli použiť ako kontext:
Pamäť = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )Pamäť. save_context ( { 'vstup' : 'Ahoj' } , { 'výkon' : 'Ako sa máš' } )
Pamäť. save_context ( { 'vstup' : 'Som dobrý a čo ty' } , { 'výkon' : 'nie veľa' } )
Vykonajte pamäť, aby ste získali údaje uložené vo vyrovnávacej pamäti pomocou metódy load_memory_variables():
Pamäť. load_memory_variables ( { } )
Krok 3: Použitie vyrovnávacej pamäte tokenu konverzácie v reťazci
Zostavte reťazce konfiguráciou ConversationChain() metóda s viacerými argumentmi na použitie vyrovnávacej pamäte tokenu konverzácie:
od langchain. reťaze importovať ConversationChainrozhovor_so_zhrnutím = ConversationChain (
llm = llm ,
Pamäť = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
podrobný = Pravda ,
)
rozhovor_so_zhrnutím. predpovedať ( vstup = 'Ahoj, ako?' )
Teraz začnite konverzáciu kladením otázok pomocou výziev napísaných v prirodzenom jazyku:
rozhovor_so_zhrnutím. predpovedať ( vstup = 'Práve pracujeme na projekte NLP' )
Získajte výstup z údajov uložených vo vyrovnávacej pamäti pomocou počtu tokenov:
rozhovor_so_zhrnutím. predpovedať ( vstup = 'Práve pracujeme na navrhovaní LLM' )
Vyrovnávacia pamäť sa neustále aktualizuje s každým novým vstupom, pretože predchádzajúce správy sa pravidelne vyprázdňujú:
rozhovor_so_zhrnutím. predpovedať (vstup = 'LLM používa LangChain! Počuli ste o tom'
)
To je všetko o používaní vyrovnávacej pamäte tokenov konverzácie v LangChain.
Záver
Ak chcete použiť vyrovnávaciu pamäť tokenov konverzácie v LangChain, jednoducho nainštalujte moduly na nastavenie prostredia pomocou kľúča API z účtu OpenAI. Potom importujte knižnicu ConversationTokenBufferMemory pomocou modulu LangChain na uloženie konverzácie do vyrovnávacej pamäte. Vyrovnávacia pamäť môže byť použitá v reťazci na vyprázdnenie starších správ s každou novou správou v chate. Tento príspevok rozpracoval použitie vyrovnávacej pamäte tokenu konverzácie v LangChain.