Hoe om 'n KI-agent te bou

Hoe om 'n KI-agent te bou

Kort antwoord: Om 'n KI-agent te bou wat in die praktyk werk, behandel dit as 'n beheerde lus: neem insette, besluit die volgende aksie, roep 'n noukeurige instrument aan, neem die resultaat waar en herhaal totdat 'n duidelike "klaar"-kontrole slaag. Dit verdien sy plek wanneer die taak meerstapig en instrumentgedrewe is; as 'n enkele aanwyser dit oplos, slaan die agent oor. Voeg streng instrumentskemas, staplimiete, logging en 'n valideerder/kritikus by sodat wanneer instrumente faal of insette dubbelsinnig is, die agent eskaleer in plaas van te herhal.

Belangrike wegneemetes:

Beheerderlus : Implementeer invoer→optree→neem herhaling waar met eksplisiete stopvoorwaardes en maksimum stappe.

Gereedskapontwerp : Hou gereedskap eng, getikt, toestemming gegee en gevalideer om "enigiets doen"-chaos te voorkom.

Geheuehigiëne : Gebruik kompakte korttermyntoestand plus langtermynherwinning; vermy die weggooi van volledige transkripsies.

Misbruikweerstand : Voeg toelaatlyste, tempolimiete, idempotensie en "droë lopie" vir riskante aksies by.

Toetsbaarheid : Handhaaf 'n scenario-reeks (mislukkings, dubbelsinnigheid, inspuitings) en herhaal dit met elke verandering.

Hoe om 'n KI-agent te bou? Infografika
Artikels wat jy dalk na hierdie een wil lees:

🔗 Hoe om KI-prestasie te meet
Leer praktiese statistieke om spoed, akkuraatheid en betroubaarheid te meet.

🔗 Hoe om met KI te praat
Gebruik aanwysings, konteks en opvolgings om beter antwoorde te kry.

🔗 Hoe om KI-modelle te evalueer
Vergelyk modelle met behulp van toetse, rubrieke en werklike taakuitkomste.

🔗 Hoe om KI-modelle te optimaliseer
Verbeter kwaliteit en koste met afstemming, snoei en monitering.


1) Wat 'n KI-agent is, in normale mens terme 🧠

'n KI-agent is 'n lus. LangChain "Agente" dokumente

Dis dit. 'n Lus met 'n brein in die middel.

Invoer → dink → optree → waarneem → herhaal . ReAct-papier (redeneer + optree)

Waar:

  • Invoer is 'n gebruikersversoek of 'n gebeurtenis (nuwe e-pos, ondersteuningskaartjie, sensor ping).

  • Dink is 'n taalmodel wat oor die volgende stap redeneer.

  • Act roep 'n instrument aan (soek interne dokumente, voer kode uit, skep 'n kaartjie, konsep 'n antwoord). OpenAI-funksie-roepgids

  • Observe lees die gereedskapuitvoer.

  • Herhaling is die deel wat dit "agenties" laat voel in plaas van "gesellig". LangChain "Agente" dokumente

Sommige agente is basies slim makro's. Ander tree meer op soos 'n junior operateur wat take kan jongleer en van foute kan herstel. Albei tel.

Ook, jy het nie volle outonomie nodig nie. Trouens ... jy wil dit waarskynlik nie hê nie 🙃


2) Wanneer jy 'n agent moet bou (en wanneer jy nie moet nie) 🚦

Bou 'n agent wanneer:

  • Die werk is veelstapig en verander na gelang van wat halfpad gebeur.

  • Die werk benodig die gebruik van gereedskap (databasisse, CRM'e, kode-uitvoering, lêergenerering, blaaiers, interne API's). LangChain "Gereedskap"-dokumente

  • Jy wil herhaalbare uitkomste met skutrelings hê, nie net eenmalige antwoorde nie.

  • Jy kan "klaar" definieer op 'n manier wat 'n rekenaar kan nagaan, selfs losweg.

Moenie 'n agent bou wanneer:

  • 'n Eenvoudige prompt + antwoord los dit op (moenie te veel ingenieurswerk doen nie, jy sal jouself later haat).

  • Jy benodig perfekte determinisme (agente kan konsekwent-agtig wees, maar nie roboties nie).

  • Jy het geen gereedskap of data om te konnekteer nie – dan is dit meestal net vibrasies.

Kom ons wees eerlik: die helfte van "KI-agentprojekte" kan 'n werkvloei met 'n paar vertakkingsreëls wees. Maar goed, soms maak die atmosfeer ook saak 🤷♂️


3) Wat maak 'n goeie weergawe van 'n KI-agent ✅

Hier is die "Wat maak 'n goeie weergawe van"-afdeling waarvoor jy gevra het, behalwe dat ek 'n bietjie bot gaan wees:

'n Goeie weergawe van 'n KI-agent is nie die een wat die hardste dink nie. Dis die een wat:

As jou agent nie getoets kan word nie, is dit basies 'n baie selfversekerde gleufmasjien. Pret by partytjies, vreesaanjaend in produksie 😬


4) Die kernboustene van 'n agent (die "anatomie" 🧩)

Die meeste vaste middels het hierdie stukke:

A) Die beheerderlus 🔁

Dit is die orkestrator:

B) Gereedskap (ook bekend as vermoëns) 🧰

Gereedskap is wat 'n agent effektief maak: LangChain "Gereedskap" dokumente

  • databasisnavrae

  • stuur e-posse

  • lêers trek

  • hardloopkode

  • oproep van interne API's

  • skryf na sigblaaie of CRM'e

C) Geheue 🗃️

Twee soorte maak saak:

  • korttermyngeheue : die huidige hardloopkonteks, onlangse stappe, huidige plan

  • langtermyngeheue : gebruikersvoorkeure, projekkonteks, herwinbare kennis (dikwels via inbeddings + 'n vektorstoor) RAG-papier

D) Beplannings- en besluitnemingsbeleid 🧭

Selfs al noem jy dit nie “beplanning” nie, benodig jy ’n metode:

E) Skermrelings en evaluering 🧯

Ja, dis meer ingenieurswese as aansporing. Wat… soort van die punt is.


5) Vergelykingstabel: gewilde maniere om 'n agent te bou 🧾

Hieronder is 'n realistiese "Vergelykingstabel" - met 'n paar eienaardighede, want regte spanne is eienaardig 😄

Gereedskap / Raamwerk Gehoor Prys Hoekom dit werk Notas (klein chaos)
LangChain bouers wat van Lego-styl komponente hou gratis-agtig + infra groot ekosisteem vir gereedskap, geheue, kettings kan spaghetti-vinnig raak as jy dinge nie duidelik benoem nie
Lama-indeks RAG-swaar spanne gratis-agtig + infra sterk herwinningspatrone, indeksering, verbindings wonderlik as jou agent basies "soek + tree op" is ... wat algemeen is
OpenAI Assistent-stylbenadering spanne wat vinniger opstelling wil hê gebruiksgebaseerde ingeboude gereedskaproeppatrone en loopstatus minder buigsaam in sommige hoeke, maar skoon vir baie toepassings OpenAI voer API OpenAI Assistants-funksieoproepe uit
Semantiese Kern ontwikkelaars wat gestruktureerde orkestrering wil hê vry-agtig netjiese abstraksie vir vaardighede/funksies voel "ondernemingsnetjies" - soms is dit 'n kompliment 😉
AutoGen multi-agent eksperimenteerders vry-agtig agent-tot-agent samewerkingspatrone kan oorpraat; stel streng beëindigingsreëls
CrewAI "spanne agente" ondersteuners vry-agtig rolle + take + oorhandigings is maklik om uit te druk werk die beste wanneer take bros is, nie pap nie
Hooimied soek + pyplyne mense vry-agtig vaste pyplyne, herwinning, komponente minder “agenteater”, meer “praktiese fabriek”
Rol-jou-eie (pasgemaakte lus) beheervrate (liefdevol) jou tyd minimale magie, maksimum helderheid gewoonlik die beste op die lang termyn… totdat jy alles weer uitvind 😅

Geen enkele wenner nie. Die beste keuse hang af van of jou agent se hooftaak herwinning , gereedskapuitvoering , multi-agentkoördinering of werkvloei-outomatisering .


6) Hoe om 'n KI-agent stap-vir-stap te bou (die werklike resep) 🍳🤖

Dit is die deel wat die meeste mense oorslaan, en dan wonder hoekom die agent soos 'n wasbeer in 'n spens optree.

Stap 1: Definieer die werk in een sin 🎯

Voorbeelde:

  • "Stel 'n kliëntantwoord op met behulp van beleid en kaartjiekonteks, en vra dan vir goedkeuring."

  • "Ondersoek 'n foutverslag, reproduseer dit en stel 'n oplossing voor."

  • "Verander onvolmaakte vergaderingnotas in take, eienaars en sperdatums."

As jy dit nie eenvoudig kan definieer nie, kan jou agent ook nie. Ek bedoel, dit kan, maar dit sal improviseer, en improvisasie is waar begrotings doodgaan.

Stap 2: Besluit outonomievlak (laag, medium, skerp) 🌶️

  • Lae outonomie : stel stappe voor, menslike kliks "goedkeur"

  • Medium : laat gereedskap loop, skep uitvoer, eskaleer op grond van onsekerheid

  • Hoog : voer end-tot-end uit, pings slegs mense op uitsonderings

Begin laer as wat jy wil. Jy kan dit altyd later opstoot.

Stap 3: Kies jou modelstrategie 🧠

Jy kies gewoonlik:

  • een sterk model vir alles (eenvoudig)

  • een sterk model + kleiner model vir goedkoop stappe (klassifikasie, roetebepaling)

  • gespesialiseerde modelle (visie, kode, spraak) indien nodig

Besluit ook:

  • maksimum tekens

  • temperatuur

  • of jy lang redenasiespore intern toelaat (jy kan, maar moenie rou denkrigting aan eindgebruikers blootstel nie)

Stap 4: Definieer gereedskap met streng skemas 🔩

Gereedskap moet wees:

In plaas van 'n hulpmiddel genaamd do_anything(input: string) , maak:

  • soek_kb(navraag: string) -> resultate[]

  • skep_kaartjie(titel: string, liggaam: string, prioriteit: enum) -> kaartjie_id

  • send_email(to: string, subject: string, body: string) -> status OpenAI Funksie oproep gids

As jy die agent 'n kettingsaag gee, moenie verbaas wees as dit 'n heining snoei deur die heining ook te verwyder nie.

Stap 5: Bou die beheerderlus 🔁

Minimum lus:

  1. Begin met doel + aanvanklike konteks

  2. Vra model: “Volgende aksie?”

  3. Indien gereedskapoproep - voer gereedskap uit

  4. Voeg waarneming by

  5. Kontroleer stoptoestand

  6. Herhaal (met maksimum stappe) LangChain "Agente" dokumente

Voeg by:

Stap 6: Voeg geheue versigtig by 🗃️

Korttermyn: hou 'n kompakte "toestandopsomming" by elke stap opgedateer. LangChain "Geheue-oorsig"
Langtermyn: stoor duursame feite (gebruikersvoorkeure, organisasiereëls, stabiele dokumente).

Duimreël:

  • as dit gereeld verander - hou dit korttermyn

  • as dit stabiel is - bêre dit vir die lang termyn

  • as dit sensitief is - bêre minimaal (of glad nie)

Stap 7: Voeg validering en 'n "kritiek"-slaag by 🧪

'n Goedkoop, praktiese patroon:

  • agent genereer resultaat

  • valideerder kontroleer struktuur en beperkings

  • opsionele kritiekmodelresensies vir ontbrekende stappe of beleidsoortredings NIST AI RMF 1.0

Nie perfek nie, maar dit vang 'n skokkende hoeveelheid onsin op.

Stap 8: Teken alles aan waaroor jy spyt sal wees dat jy nie aangeteken het nie 📜

Logboek:

Toekoms - jy sal jou bedank. Heden - jy sal vergeet. Dis maar net die lewe 😵💫


7) Gereedskaproep wat nie jou siel breek nie 🧰😵

Gereedskaproeping is waar "Hoe om 'n KI-agent te bou" ware sagteware-ingenieurswese word.

Maak gereedskap betroubaar (betroubaar is goed)

Betroubare gereedskap is:

Voeg relings by die gereedskaplaag, nie net aanwysings nie

Aanwysings is beleefde voorstelle. Gereedskapvalidering is 'n geslote deur. OpenAI Gestruktureerde Uitsette

Doen:

  • toelaatlyste (watter gereedskap kan loop)

  • invoervalidering

  • koerslimiete OpenAI Gids vir koerslimiete

  • toestemmingskontroles per gebruiker/organisasie

  • "Droeloopmodus" vir riskante aksies

Ontwerp vir gedeeltelike mislukking

Gereedskap faal. Netwerke wiebel. Magtiging verval. 'n Agent moet:

'n Stilweg effektiewe truuk: gee gestruktureerde foute soos:

  • tipe: outoriseringsfout

  • tipe: nie_gevind

  • tipe: rate_limited
    Sodat die model intelligent kan reageer in plaas van paniekerig te raak.


8) Herinnering wat help in plaas daarvan om jou te spook 👻🗂️

Geheue is kragtig, maar dit kan ook 'n rommellaai word.

Korttermyngeheue: hou dit kompak

Gebruik:

  • laaste N stappe

  • 'n lopende opsomming (opgedateer elke lus)

  • huidige plan

  • huidige beperkings (begroting, tyd, beleide)

As jy alles in konteks plaas, kry jy:

  • hoër koste

  • stadiger latensie

  • meer verwarring (ja, selfs dan)

Langtermyngeheue: herroeping eerder as "opvulsel"

Die meeste "langtermyngeheue" is meer soos:

  • inbeddings

  • vektorwinkel

  • herwinningsvergrote generasie (RAG) RAG-papier

Die agent memoriseer nie. Dit haal die mees relevante brokkies tydens looptyd op. LlamaIndex “Inleiding tot RAG”

Praktiese geheuereëls

  • Stoor "voorkeure" as eksplisiete feite: "Gebruiker hou van kolpuntopsommings en haat emojis" (lol, nie hier nie 😄)

  • Stoor "besluite" met tydstempels of weergawes (anders hoop teenstrydighede op)

  • Moet nooit geheime stoor tensy jy dit werklik moet doen nie

En hier is my onvolmaakte metafoor: geheue is soos 'n yskas. As jy dit nooit skoonmaak nie, smaak jou toebroodjie uiteindelik na uie en spyt.


9) Beplanningspatrone (van eenvoudig tot deftig) 🧭✨

Beplanning is bloot beheerde ontbinding. Moenie dit misties maak nie.

Patroon A: Kontrolelysbeplanner ✅

  • Model lewer 'n lys van stappe uit

  • Voer stap vir stap uit

  • Opdateringskontrolelysstatus

Uitstekend vir aanboording. Eenvoudig, toetsbaar.

Patroon B: ReAct-lus (rede + handeling) 🧠→🧰

  • model besluit volgende gereedskapoproep

  • neem uitvoer waar

  • herhaal ReAct-vraestel

Dit is die klassieke agent-gevoel.

Patroon C: Toesighouer-werker 👥

Dit is waardevol wanneer take paralleliseerbaar is, of wanneer jy verskillende "rolle" wil hê soos:

  • navorser

  • kodeerder

  • redakteur

  • QA-kontroleerder

Patroon D: Beplan-dan-voer uit met herbeplanning 🔄

  • skep plan

  • uitvoer

  • as gereedskapresultate die werklikheid verander, herbeplan

Dit verhoed dat die agent hardnekkig 'n slegte plan volg. Mense doen dit ook, tensy hulle moeg is, in welke geval hulle ook slegte planne volg.


10) Veiligheid, betroubaarheid, en om nie afgedank te word nie 🔐😅

As jou agent aksies kan neem, benodig jy veiligheidsontwerp. Nie "lekker om te hê" nie. Benodig. NIST AI RMF 1.0

Harde perke

  • maksimum stappe per lopie

  • maksimum gereedskapoproepe per minuut

  • maksimum besteding per sessie (tokenbegroting)

  • beperkte gereedskap agter goedkeuring

Datahantering

  • redigeer sensitiewe insette voor logging

  • aparte omgewings (ontwikkeling teenoor produksie)

  • gereedskaptoestemmings met die minste voorregte

Gedragsbeperkings

  • dwing die agent om interne bewysstukke aan te haal (nie eksterne skakels nie, net interne verwysings)

  • vereis onsekerheidsvlae wanneer vertroue laag is

  • vereis "vra 'n verduidelikende vraag" indien insette dubbelsinnig is

’n Betroubare agent is nie die een met die meeste selfvertroue nie. Dis die een wat weet wanneer hy raai… en dit sê.


11) Toetsing en evaluering (die deel wat almal vermy) 🧪📏

Jy kan nie verbeter wat jy nie kan meet nie. Ja, daardie stelling is kitsch, maar dis irriterend waar.

Bou 'n scenariostel

Skep 30-100 toetsgevalle:

Punte-uitkomste

Gebruik statistieke soos:

  • taak sukseskoers

  • tyd tot voltooiing

  • herstelkoers vir gereedskapsfoute

  • hallusinasiekoers (bewerings sonder bewyse)

  • menslike goedkeuringskoers (indien in toesigmodus)

Regressietoetse vir aanwysings en gereedskap

Elke keer as jy verander:

  • gereedskapskema

  • stelselinstruksies

  • herwinningslogika

  • geheueformaat
    Begin die suite weer.

Agente is sensitiewe diere. Soos kamerplante, maar duurder.


12) Ontplooiingspatrone wat nie jou begroting smelt nie 💸🔥

Begin met 'n enkele diens

Voeg vroegtydig kostebeheer by

  • kasgeheue-herwinningsresultate

  • die gesprekstatus met opsommings saampers

  • gebruik van kleiner modelle vir roetering en ekstraksie

  • beperking van "diep denkmodus" tot die moeilikste stappe

Algemene argitektuurkeuse

  • staatlose beheerder + eksterne toestandstoor (DB/redis)

  • gereedskapoproepe is idempotent waar moontlik Stripe “Idempotente versoeke”

  • tou vir lang take (sodat jy nie 'n webversoek vir ewig oophou nie)

Ook: bou 'n "dodkskakelaar". Jy sal dit nie nodig hê totdat jy dit regtig, regtig nodig het nie 😬


13) Slotnotas - die kort weergawe oor Hoe om 'n KI-agent te bou 🎁🤖

As jy niks anders onthou nie, onthou hierdie:

'n Agent is nie magie nie. Dis 'n stelsel wat gereeld genoeg goeie besluite neem om waardevol te wees ... en nederlaag erken voordat dit skade veroorsaak. Stilweg vertroostend, op 'n manier 😌

En ja, as jy dit reg bou, voel dit soos om 'n klein digitale intern aan te stel wat nooit slaap nie, soms paniekerig raak en van papierwerk hou. So, basies 'n intern.


Gereelde vrae

Wat is 'n KI-agent, in eenvoudige terme?

'n KI-agent is basies 'n lus wat herhaal: neem insette, besluit die volgende stap, gebruik 'n instrument, lees die resultaat en herhaal totdat dit klaar is. Die "agentiese" deel kom van optree en waarneem, nie net gesels nie. Baie agente is net slim outomatisering met instrumenttoegang, terwyl ander meer soos 'n junior operateur optree wat van foute kan herstel.

Wanneer moet ek 'n KI-agent bou in plaas daarvan om net 'n prompt te gebruik?

Bou 'n agent wanneer die werk veelstapig is, veranderinge gebaseer is op intermediêre resultate, en betroubare gereedskapgebruik benodig (API's, databasisse, kaartjies, kode-uitvoering). Agente is ook nuttig wanneer jy herhaalbare uitkomste met beskermingsmaatreëls en 'n manier wil hê om "klaar" te kontroleer. As 'n eenvoudige vinnige reaksie werk, is 'n agent gewoonlik onnodige oorhoofse koste en ekstra mislukkingsmodusse.

Hoe bou ek 'n KI-agent wat nie in lusse vashaak nie?

Gebruik harde stopvoorwaardes: maksimum stappe, maksimum gereedskapoproepe en duidelike voltooiingskontroles. Voeg gestruktureerde gereedskapskemas, tydsbeperkings en herprobeer by wat nie vir ewig sal probeer nie. Teken besluite en gereedskapuitsette aan sodat jy kan sien waar dit ontspoor. 'n Algemene veiligheidsklep is eskalasie: as die agent onseker is of foute herhaal, moet dit eerder hulp vra as om te improviseer.

Wat is die minimum argitektuur vir Hoe om 'n KI-agent te bou?

Ten minste benodig jy 'n beheerderlus wat die model 'n doelwit en konteks gee, vir die volgende aksie vra, 'n instrument uitvoer indien versoek, die waarneming byvoeg en herhaal. Jy benodig ook instrumente met streng invoer/uitvoer-vorms en 'n "klaar"-kontrole. Selfs 'n rol-jou-eie-lus kan goed werk as jy die toestand skoon hou en staplimiete afdwing.

Hoe moet ek gereedskapoproepe ontwerp sodat dit betroubaar is in produksie?

Hou gereedskap noukeurig, getikt, met toestemming en gevalideer – vermy 'n generiese "doen_enigiets"-instrument. Verkies streng skemas (soos gestruktureerde uitsette/funksie-oproepe) sodat die agent nie insette met die hand kan stuur nie. Voeg toelaatlyste, tempolimiete en gebruiker-/organisasie-toestemmingskontroles by die instrumentlaag by. Ontwerp gereedskap sodat dit veilig is om weer te laat loop wanneer moontlik, deur idempotensiepatrone te gebruik.

Wat is die beste manier om geheue by te voeg sonder om die agent te vererger?

Behandel geheue as twee dele: korttermyn-looptoestand (onlangse stappe, huidige plan, beperkings) en langtermyn-herwinning (voorkeure, stabiele reëls, relevante dokumente). Hou korttermyn kompak met lopende opsommings, nie volledige transkripsies nie. Vir langtermyngeheue is herwinning (inbeddings + vektorberging/RAG-patrone) gewoonlik beter as om alles in konteks te "prop" en die model te verwar.

Watter beplanningspatroon moet ek gebruik: kontrolelys, ReAct, of toesighouer-werker?

'n Kontrolelysbeplanner is wonderlik wanneer take voorspelbaar is en jy iets maklik wil toets. ReAct-styl lusse skyn wanneer gereedskapresultate verander wat jy volgende doen. Toesighouer-werker patrone (soos AutoGen-styl rolskeiding) help wanneer take parallel gestel kan word of voordeel kan trek uit verskillende rolle (navorser, kodeerder, QA). Beplan-dan-uitvoer met herbeplanning is 'n praktiese middelweg om hardnekkige slegte planne te vermy.

Hoe maak ek 'n agent veilig as dit werklike aksies kan neem?

Gebruik toestemmings met die minste voorregte en beperk riskante gereedskap agter goedkeurings- of "droëlopie"-modusse. Voeg begrotings en limiete by: maksimum stappe, maksimum besteding en per minuut-gereedskapoproeplimiete. Wysig sensitiewe data voor aanmelding, en skei ontwikkelaar- van produksieomgewings. Vereis onsekerheidsvlae of verduidelikende vrae wanneer insette dubbelsinnig is, in plaas daarvan om vertroue bewyse te laat vervang.

Hoe toets en evalueer ek 'n KI-agent sodat dit mettertyd verbeter?

Bou 'n scenario-suite met gelukkige paaie, randgevalle, gereedskapsfoute, dubbelsinnige versoeke en pogings tot promptinspuiting (OWASP-styl). Beoordeel uitkomste soos taaksukses, tyd tot voltooiing, herstel van gereedskapsfoute en bewerings sonder bewyse. Elke keer as jy gereedskapskemas, prompts, herwinning of geheueformatering verander, voer die suite weer uit. As jy dit nie kan toets nie, kan jy dit nie betroubaar versend nie.

Hoe ontplooi ek 'n agent sonder om latensie en koste te verhoog?

'n Algemene patroon is 'n staatlose beheerder met 'n eksterne toestandstoor (DB/Redis), gereedskapdienste daaragter, en sterk logging/monitering (dikwels OpenTelemetry). Beheer koste met herwinningsgeheue, kompakte toestandsopsommings, kleiner modelle vir roetering/onttrekking, en die beperking van "diep denke" tot die moeilikste stappe. Gebruik toue vir lang take sodat jy nie webversoeke oophou nie. Sluit altyd 'n doodskakelaar in.

Verwysings

  1. Nasionale Instituut vir Standaarde en Tegnologie (NIST) - NIST AI RMF 1.0 (betroubaarheid en deursigtigheid) - nvlpubs.nist.gov

  2. OpenAI - Gestruktureerde Uitsette - platform.openai.com

  3. OpenAI - Funksieroepgids - platform.openai.com

  4. OpenAI - Gids vir tarieflimiete - platform.openai.com

  5. OpenAI - Begin API - platform.openai.com

  6. OpenAI - Assistentfunksie-oproepe - platform.openai.com

  7. LangChain - Agente dokumentasie (JavaScript) - docs.langchain.com

  8. LangChain - Gereedskap dokumentasie (Python) - docs.langchain.com

  9. LangChain - Geheue-oorsig - docs.langchain.com

  10. arXiv - ReAct-artikel (rede + daad) - arxiv.org

  11. arXiv - RAG-artikel - arxiv.org

  12. Amazon Web Services (AWS) Bouersbiblioteek - Tydsbeperkings, herprobeer en terugtrekking met jitter - aws.amazon.com

  13. OpenTelemetry - Waarneembaarheidsinleiding - opentelemetry.io

  14. Stripe - Idempotente versoeke - docs.stripe.com

  15. Google Cloud - Herprobeer strategie (terugtrekking + jitter) - docs.cloud.google.com

  16. OWASP - Top 10 vir Groot Taalmodel Toepassings - owasp.org

  17. OWASP - LLM01 Vinnige Inspuiting - genai.owasp.org

  18. LlamaIndex - Inleiding tot RAG - ontwikkelaars.llamaindex.ai

  19. Microsoft - Semantiese Kern - learn.microsoft.com

  20. Microsoft AutoGen - Multi-agent raamwerk (dokumentasie) - microsoft.github.io

  21. CrewAI - Agentekonsepte - docs.crewai.com

  22. Hooimied (diepset) - Dokumentasie vir apporteerders - docs.haystack.deepset.ai

Vind die nuutste KI by die amptelike KI-assistentwinkel

Oor Ons

Terug na blog