Ako používať vyrovnávaciu pamäť tokenov konverzácie v LangChain?

Ako Pouzivat Vyrovnavaciu Pamat Tokenov Konverzacie V Langchain



LangChain umožňuje vývojárom vytvárať modely pomocou strojového učenia alebo hlbokého učenia, ktoré dokáže trénovať modely pomocou súborov údajov. Tieto modely môžu získať rôzne vzory z údajov alebo pochopiť formu súboru údajov a jeho jazyk na extrahovanie informácií. Veľké jazykové modely alebo LLM môžu byť nakonfigurované alebo navrhnuté pomocou rámcov LangChain, ktoré dokážu porozumieť a generovať text v prirodzených jazykoch.

Táto príručka bude ilustrovať proces používania vyrovnávacej pamäte tokenov konverzácie v LangChain.

Ako používať vyrovnávaciu pamäť tokenov konverzácie v LangChain?

The ConversationTokenBufferMemory knižnicu je možné importovať z rámca LangChain na uloženie najnovších správ do vyrovnávacej pamäte. Tokeny možno nakonfigurovať tak, aby obmedzili počet správ uložených vo vyrovnávacej pamäti a staršie správy sa automaticky vyprázdnia.







Ak sa chcete naučiť proces používania vyrovnávacej pamäte tokenov konverzácie v LangChain, použite nasledujúcu príručku:



Krok 1: Nainštalujte moduly

Najprv nainštalujte rámec LangChain obsahujúci všetky požadované moduly pomocou príkazu pip:



pip install langchain





Teraz nainštalujte modul OpenAI na vytvorenie LLM a reťazcov pomocou metódy OpenAI():

pip install openai



Po inštalácii modulov jednoducho použite kľúč API OpenAI nastaviť prostredie pomocou knižníc OS a getpass:

importovať vy

importovať getpass

vy . približne [ 'OPENAI_API_KEY' ] = getpass . getpass ( 'OpenAI API Key:' )

Krok 2: Použitie vyrovnávacej pamäte tokenu konverzácie

Zostavte LLM pomocou metódy OpenAI() po importovaní ConversationTokenBufferMemory knižnica z rámca LangChain:

od langchain. Pamäť importovať ConversationTokenBufferMemory

od langchain. llms importovať OpenAI

llm = OpenAI ( )

Nakonfigurujte pamäť na nastavenie tokenu, vymaže staré správy a uloží ich do vyrovnávacej pamäte. Potom si uložte správy z konverzácie a získajte tie najnovšie, aby ste ich mohli použiť ako kontext:

Pamäť = ConversationTokenBufferMemory ( llm = llm , max_token_limit = 10 )

Pamäť. save_context ( { 'vstup' : 'Ahoj' } , { 'výkon' : 'Ako sa máš' } )

Pamäť. save_context ( { 'vstup' : 'Som dobrý a čo ty' } , { 'výkon' : 'nie veľa' } )

Vykonajte pamäť, aby ste získali údaje uložené vo vyrovnávacej pamäti pomocou metódy load_memory_variables():

Pamäť. load_memory_variables ( { } )

Krok 3: Použitie vyrovnávacej pamäte tokenu konverzácie v reťazci

Zostavte reťazce konfiguráciou ConversationChain() metóda s viacerými argumentmi na použitie vyrovnávacej pamäte tokenu konverzácie:

od langchain. reťaze importovať ConversationChain

rozhovor_so_zhrnutím = ConversationChain (
llm = llm ,
Pamäť = ConversationTokenBufferMemory ( llm = OpenAI ( ) , max_token_limit = 60 ) ,
podrobný = Pravda ,
)
rozhovor_so_zhrnutím. predpovedať ( vstup = 'Ahoj, ako?' )

Teraz začnite konverzáciu kladením otázok pomocou výziev napísaných v prirodzenom jazyku:

rozhovor_so_zhrnutím. predpovedať ( vstup = 'Práve pracujeme na projekte NLP' )

Získajte výstup z údajov uložených vo vyrovnávacej pamäti pomocou počtu tokenov:

rozhovor_so_zhrnutím. predpovedať ( vstup = 'Práve pracujeme na navrhovaní LLM' )

Vyrovnávacia pamäť sa neustále aktualizuje s každým novým vstupom, pretože predchádzajúce správy sa pravidelne vyprázdňujú:

rozhovor_so_zhrnutím. predpovedať (

vstup = 'LLM používa LangChain! Počuli ste o tom'

)

To je všetko o používaní vyrovnávacej pamäte tokenov konverzácie v LangChain.

Záver

Ak chcete použiť vyrovnávaciu pamäť tokenov konverzácie v LangChain, jednoducho nainštalujte moduly na nastavenie prostredia pomocou kľúča API z účtu OpenAI. Potom importujte knižnicu ConversationTokenBufferMemory pomocou modulu LangChain na uloženie konverzácie do vyrovnávacej pamäte. Vyrovnávacia pamäť môže byť použitá v reťazci na vyprázdnenie starších správ s každou novou správou v chate. Tento príspevok rozpracoval použitie vyrovnávacej pamäte tokenu konverzácie v LangChain.