Az LM Stúdió kegyelme Lehetővé teszi, hogy hatékony nyelvi modelleket élvezhess Mac gépeden anélkül, hogy a felhőre, a havi díjakra vagy a tokenkorlátokra kellene hagyatkoznod. Lényegében a számítógépedet a „ChatGPT otthoni verziójává” alakítod, de olyan szintű kontrollal és adatvédelemmel, amelyet egy online szolgáltatásban nem találsz meg.
Ha macOS-t használsz és Apple Silicon chippel rendelkezelAz LM Studio az egyik legjobb módszer egy helyi AI-környezet beállítására programozáshoz, íráshoz, fordításhoz, ügynökökkel való teszteléshez, sőt API-n keresztüli integráláshoz a saját alkalmazásaiddal. Ebben az átfogó útmutatóban megismerheted az LM Studio-t, hogyan hozhatod ki belőle a legtöbbet Mac gépeden, hogyan használd a helyi API-ját, milyen a fejlesztői mód, és hogyan illeszkedik mindez az MCP-hez és a napi munkafolyamataidhoz.
Mi az LM Studio, és miért érdemes macOS-en használni?
Az LM Studio egy többplatformos asztali alkalmazás (macOS, Windows és Linux) nagy nyelvi modellek letöltésére és közvetlenül a számítógépeden történő futtatására tervezett. Az ötlet egyszerű: felejtsd el a konzolt, válaszd ki a modellt egy letisztult grafikus felületen, töltsd le optimalizált formátumban, és kezdj el csevegni vagy hívni egy helyi API-n keresztül.
Úgy működik, mint egy "helyi ChatGPT"Üzeneteket írsz, a modell válaszol, és az összes feldolgozás a Mac gépeden történik, anélkül, hogy adatokat küldenél külső szerverekre. Nincs szükség regisztrációra, nincsenek API-kulcsok a konfiguráláshoz, és miután letöltötted a modellt, internetkapcsolat nélkül is használhatod.
Az LM Studio GGUF és MLX formátumú modellekkel működik.Ezeket úgy tervezték, hogy jól működjenek mind a CPU-n, mind az Apple Silicon integrált GPU-ján a Metalon keresztül. Ez azt jelenti, hogy használhatod az LLaMA, Mistral, Gemma, Phi, DeepSeek és sok más variánsát, amennyiben ezek elérhetők ezekben a kvantált formátumokban a hatékony lokális végrehajtás érdekében.
Ha technikaibb eszközöket, például a llama.cpp-t vagy a vLLM-et használodAz LM Studio gyakorlatilag ugyanazokat a képességeket kínálja a lokális modellek futtatásához, de egy nagyon kifinomult grafikus felületbe csomagolva. Nem kell parancsokat, jelzőket vagy modellútvonalakat megjegyezni: minden világos menükön, füleken és gombokon keresztül történik.
Azoknak, akiknek M1, M2, M3 vagy M4 chippel szerelt Mac gépük vanAz LM Studio automatikusan kihasználja az Apple Silicon architektúráját, a szálak számát és a memóriahasználatot úgy állítja be, hogy a legtöbbet hozza ki a gépből anélkül, hogy az első naptól kezdve bonyolult paraméterekkel kellene bajlódni.
A helyi LLM-ek használatának előnyei és hátrányai Macen
A helyi LLM macOS rendszeren történő beállítása nagyon erős előnyökkel jár Bár jobb alternatívának tűnhet a külső API-kra való támaszkodásnál, kompromisszumokkal is jár, amelyeket érdemes megérteni, mielőtt belevágna. Ha fontolgatja az OpenAI API lecserélését a költségek csökkentése vagy az adatvédelem javítása érdekében, akkor ez Önnek szól.
A pozitív oldalon a magánélet a nagy vonzerő.Minden, amit írsz, a csatolt dokumentumok és a megosztott kód a Mac gépeden marad. Nem kerül harmadik fél szervereire, ami kulcsfontosságú, ha bizalmas adatokkal, szerződésekkel, belső vállalati dokumentumokkal vagy zárt kóddal dolgozol.
Egy másik egyértelmű előny a teljes kontroll. A modellel kapcsolatban: te döntöd el, hogy melyik verziót töltöd le, mekkora méretet támogat a géped, hogyan konfigurálod a maximális kontextust, mely rendszerutasításokat használod, és mely generálási beállítások (hőmérséklet, top-k, top-p stb.) felelnek meg legjobban az egyes feladatoknak.
A költségmegtakarítás is észrevehető. Ha intenzíven használod a mesterséges intelligenciát, különösen ügynökprogramozáshoz és hibakereséshez, ahol sok hívás generálódik, a modell letöltése után nem kell tokeneket fizetned, és nem kell havi előfizetéshez kötnöd magad: az igazi korlát a hardvered.
Azonban jelentős útdíjak vannak.A teljesítmény teljes mértékben a Mac teljesítményétől függ: minél több RAM-mal és processzormaggal rendelkezik az M chip, annál jobb modelleket futtathatsz rajta, és annál simább lesz a felhasználói élmény. Kevésbé erős gépeken egy túl nagy modell akadozhat, vagy egyáltalán nem töltődik be.
Emellett elveszíti a közvetlen hozzáférést a naprakész információkhoz az internetről.Mivel a helyi modellek csak azzal dolgoznak, amit a képzésükből és az általad biztosított dokumentumokból tudnak. Nem tudnak a Google-höz fordulni új adatokért, hacsak nem csatlakoztatod őket külső eszközökhöz MCP-n vagy más integrációk révén.
Végül, néhány modell igazán nagy Könnyen több mint 10-15 GB lemezterületet foglalhatnak el, és betöltéskor sok RAM-ot is fogyasztanak. Általános szabályként kerüld azokat a modelleket, amelyek nyers mérete egyértelműen meghaladja a Mac memóriájának kapacitását, különben folyamatosan teljesítményproblémákat fogsz tapasztalni.
Követelmények és szempontok az LM Studio macOS rendszeren történő használatához
Macen az LM Studio különösen fényesen ragyog az Apple Silicon alapú gépeken.A fejlesztő M1, M2, M3 vagy M4 processzor használatát javasolja, ideális esetben legalább 16 GB RAM-mal, ha kényelmesen szeretnénk dolgozni a középkategóriás modellekkel.
8 GB RAM-mal nagyon kis modellekkel is futtathatsz teszteket (1B vagy 3B kvantált paraméterből), de komolyabb programozási, írási vagy dokumentumelemzési feladatokhoz jobb, ha 16 GB-ot, vagy akár 32 GB-ot célozol meg, ha már van egy vastag MacBook Pro-d, például egy M1 Max vagy hasonló.

Az LM Studio automatikusan felismeri a CPU architektúrát Ezenkívül néhány alapértelmezett paramétert is módosít, hogy elkerülje a rendszer túlterhelését. Ennek ellenére mindig jó ötlet figyelni a memóriahasználatot, és nem csak a memóriahasználat kedvéért letölteni hatalmas fájlokat. Célszerűbb jól optimalizált közepes méretű fájlokkal kezdeni, és ha a géped jól kezeli őket, fokozatosan növelni a méretet.
Ha Intel processzoros Mac géped vanA támogatás korlátozottabb, és a teljesítmény is alacsonyabb lesz, mint az Apple Siliconon. Ebben az esetben egyes felhasználók dedikált alternatívákat, például az Msty-t részesítik előnyben Intel Mac-ekhez, bár az LM Studio továbbra is életképes opció marad, ha ezeket az energiakorlátozásokat elfogadják.
Ne feledje, hogy minden modell tárhelyet foglal el. És ha túl sok variációt próbálsz ki, a merevlemezed gyorsan megtelik. Töröld le a nem használt modelleket, és vezess egy kis listát a kedvenceidről, hogy elkerüld az erőforrások pazarlását.
Az LM Studio lépésről lépésre történő telepítése Mac számítógépre
Az LM Studio telepítése macOS rendszerre nagyon hasonló bármely más asztali alkalmazás telepítéséhez.Van azonban néhány macOS biztonsági részlet, amelyet érdemes megjegyezni, különösen, ha nem szoktál az App Store-on kívülről telepíteni szoftvereket.
Az első dolog, amit tenned kell, hogy felkeresed a hivatalos weboldalt Nyisd meg az LM Studio alkalmazást (lmstudio.ai), és töltsd le a macOS verzióját. Látni fogod, hogy vannak kiadások mind az Apple Silicon, mind az Intel számára; válaszd ki a számítógépednek megfelelőt a lehető legjobb teljesítmény biztosítása érdekében.
A fájl letöltése után, általában a Letöltések mappában található, egyszerűen nyissa meg a telepítőt, és húzza az LM Studio alkalmazást az Alkalmazások mappába, ahogyan bármely más, harmadik féltől származó alkalmazással tenné a Mac gépén.
Az LM Studio első megnyitási kísérleteA macOS valószínűleg azért blokkolja, mert nem az App Store-ból származik. Ha látod a figyelmeztetést, menj a Rendszerbeállítások > Biztonság és adatvédelem > Általános lapra, és alul kattints a „Megnyitás mindenképpen” gombra az LM Studio figyelmeztetés mellett.
Ezt a lépést követően az alkalmazásnak normálisan kell futnia. anélkül, hogy újra engedélyt kellene kérned. Innentől kezdve elkezdheted a modellek letöltését, csevegést folytatni és a helyi API konfigurálását további rendszerbeli akadályok nélkül.
Töltsd le és válaszd ki az első modelledet az LM Studio-ban
Nyissa meg az LM Studio programot Mac számítógépénA következő lépés egy olyan nyelvi modell letöltése, amely illik a hardveredhez és ahhoz, amit csinálni szeretnél: programozás, írás, fordítás, ágensekkel való kísérletezés stb. Az alkalmazás egy nagyon felhasználóbarát felfedező résszel rendelkezik.
Speciális mód aktiválása (PowerUser vagy Developer, a verziótól függően) a felület bal alsó sarkából. Ez általában extra gombokat és oszlopokat jelenít meg az oldalsávon, beleértve a keresés vagy a „Felfedezés” ikont, ahonnan elérheti a modellkatalógust.
A felfedezés részben a modellek listáját láthatja. Elérhető GGUF formátumban, és sok esetben MLX formátumban is, macOS rendszeren futó Metalra optimalizálva. Név szerint kereshet, vagy megtekintheti a kiemelt projekteket: LLaMA, Mistral, Gemma, Phi, DeepSeek és más ismert projektek.
Az ajánlott, jó RAM-mal rendelkező Mac modellek között Ilyenek például a Gemma variánsok (mint például a gemma-3n-e4b), a kis és közepes méretű Mistral modellek (mistral-small 3.2), valamint a nagyon érdekes, érvelésre fókuszáló opciók, mint például a deepseek/deepseek-r1-0528-qwen3-8b. Mindezeknek általában vannak kvantált változatai, amelyek jobban illeszkednek a memóriába.
Mielőtt rákattintana a „Letöltés” gombra, három dologra figyeljenA modellen szerepelnie kell a hivatalos ellenőrző jelnek vagy jelzésnek, GGUF vagy MLX formátumúnak kell lennie, kompatibilisnek a Mac géppel, és hozzávetőleges méretének (GB-ban) nem szabad jelentősen meghaladnia a számítógépbe telepített RAM méretét. Egy 12 GB-os modell Macen 32 GB RAM-mal általában jó választás.
A letöltés eltarthat néhány percig. Az internetkapcsolatodtól függően. A befejezés után az LM Studio elérhetővé teszi a modellt a memóriába való betöltésre, és megkezdi a vele való munkát, mind a belső csevegésből, mind a helyi API-ból.
Csevegj a modellel az LM Studioban, mintha a ChatGPT lenne
Miután legalább egy modellt letöltöttélA tesztelés legközvetlenebb módja az LM Studioba integrált Csevegés fülön keresztül történik. Nem kell semmilyen kódot megérintened: egyszerűen csak írd be és várd a választ.
A Csevegés fül felső sávjában Válaszd ki az imént letöltött modellt a legördülő menüből. Ha több is van, válthatsz közöttük, hogy valós időben összehasonlíthasd a válaszadási stílusokat és a sebességet.
Írd be az első üzenetedet a szövegmezőbeEz lehet egy egyszerű kérdés, például: „Ki vagy és mit tudsz csinálni?”, vagy valami konkrétabb, például: „Segíts nekem hibakeresni ezt a Python függvényt”, vagy „Összefoglald ezt a bekezdést két sorban”. A modell úgy fog válaszolni, mintha egy online chatbotot használnál, de mindent a Mac gépeden dolgoznak fel.
Az LM Studio lehetővé teszi a hosszú beszélgetéseket A kontextus megőrzése mellett kérheted, hogy idézze fel a korábbi utasításokat, folytassa a szöveget, vagy finomítsa a korábbi választ. Ha korlátozni szeretnéd, hogy mennyit „emlékezik”, a modellbeállításokban mindig módosíthatod a maximális kontextust.
Magában a csevegésben is kihasználhatod a RAG előnyeit. (Retrieval Augmented Generation) segítségével dokumentumokat biztosítunk számára, és megkérjük, hogy válaszadáskor vegye figyelembe azokat. Ez különösen hasznos, ha a modellnek olyan bizalmas vagy nagyon specifikus információkat kell tudnia, amelyek nem részei a standard betanításnak.
Csatoljon fájlokat, és használja az RAG-ot a helyi dokumentumokhoz
A helyi nyelvi modellek semmit sem tudnak a fájljaidról amíg explicit módon meg nem adod őket. Itt jön képbe az RAG: dokumentumokat adsz meg a Mac-edről, az LM Studio feldolgozza azokat, és a modell referenciaként használja őket sokkal relevánsabb válaszok generálásához.
Az LM Studio lehetővé teszi akár 5 fájl egyidejű feltöltésétkörülbelül 30 MB maximális összesített mérettel. A támogatott formátumok jellemzően PDF, DOCX, TXT és CSV, így jelentésekkel, szerződésekkel és jegyzetekkel, valamint alapvető táblázatos adatokkal is dolgozhat.
Miután a dokumentumokat feltöltötték a foglalkozásraEgyszerűen tegyen fel konkrét kérdéseket a tartalmával kapcsolatban. Minél konkrétabb a lekérdezése – dátumok, záradékok, nevek, szakaszok –, annál könnyebb lesz a modell számára a releváns részletek visszakeresése és hasznos válasz generálása.
Egy tipikus forgatókönyv egy szerződés elemzése lenne PDF formátumban: csatolja az LM Studio-hoz, majd tegyen fel kérdéseket, például: „magyarázza el a lízingbevevő főbb kötelezettségeit” vagy „melyik cikk tárgyalja a szerződés időtartamát és a lehetséges meghosszabbításokat?”. Az RAG által támogatott sablon összefoglalja és kiemeli a fontos információkat.
Ez a megközelítés tökéletes a személyes adatokkal való munkához. Nem szeretnéd feladni a fájljaidat, de felhőszolgáltatásba sem szeretnéd feltölteni őket. Minden dokumentumfeldolgozás a számítógépeden történik, így adataid bizalmasak maradnak.
Fejlesztői mód és speciális generálási lehetőségek
Ha tovább szeretnéd vinni az LM Studio használatát Mac gépedenA fejlesztői mód (vagy a PowerUser mód, a verziótól függően) egy sor speciális beállítást tesz elérhetővé, amelyekkel nagyon finoman szabályozható a modell viselkedése és az általa felhasznált erőforrások mennyisége.

A fő paraméterek közé tartozik a hőmérséklet.Ez határozza meg, hogy mennyire lesznek „kreatívak” vagy kiszámíthatóak a válaszok. Az alacsony értékek (például 0.1-0.3) stabilabb és formálisabb eredményeket hoznak, ideálisak összefoglalásokhoz, technikai magyarázatokhoz vagy kódgeneráláshoz. A magas értékek rugalmasabbá teszik a modellt, de növelik a szokatlan válaszok kockázatát is.
A Top-K és a Top-P két másik fontos vezérlőelem. A sokszínűség és a pontosság egyensúlyának megteremtésekor a Top-K korlátozza, hogy a modell hány egymást követő szóválasztást vesz figyelembe, míg a Top-P ezen választások kumulatív valószínűségét szabályozza. Konzervatív értékekkel a válaszok következetesebbek; szélesebb körű értékekkel a szöveg változatosabb és kevésbé ismétlődő.
A rendszerprompt vagy rendszerprompt Itt határozhatod meg a modell „személyiségét” és alapszabályait: „Viselkedj úgy, mint egy macOS-szakértő”, „Légy nagyon rövid és közvetlen a válaszaidban”, „Spanyolországból beszélj spanyolul”, vagy „Írj hivatalos, cselekvésre ösztönző e-maileket az ügyfeleknek”. Ez az utasítás a teljes beszélgetésre a háttérben kerül alkalmazásra.
Ezen beállítások módosítása közvetlen hatással van Ez mind a válaszok minőségét, mind a teljesítményt befolyásolja. A nagyon magas maximális kontextus és a magas hőmérséklet a memóriafogyasztás ugrásszerű növekedését okozhatja, és a modell futtatása hosszabb időt vehet igénybe, míg a mérsékelt értékek általában ésszerű egyensúlyt biztosítanak a simaság és a sebesség között.
Az LM Studio az OpenAI API alternatívájaként macOS rendszeren
Ha a célod az, hogy ne fizess többé az OpenAI API-ért És ha Macen váltasz egy helyi környezetre kódoláshoz, ügynökhiba-kereséshez és prototípus-készítéshez, az LM Studio remekül illik központi elemként, különösen egy M1 Max vagy hasonló géppel, 32 GB RAM-mal.
Ahelyett, hogy a vLLM-re, a call.cpp-re vagy más összetett veremekre hagyatkoznánk Az általad kezelt LM Studio egy „modellkiszolgálóként” működik, felhasználóbarát felülettel. Letöltöd a modellt, betöltöd, beállítod a paramétereket, majd elérhetővé teszel egy helyi API-t, amelyet meghívhatsz a szkripteidből vagy alkalmazásaidból, utánozva az OpenAI API folyamatát anélkül, hogy elhagynád a gépedet.
A szerek tisztításához és fejlesztéséhezMivel nem kell tokenekenként fizetni, sokkal többször végezhetsz iterációt anélkül, hogy a költségek miatt aggódnod kellene. Eszközláncokat, párbeszédes munkafolyamatokat, lépésről lépésre történő érvelést és láncolt hívásokat tesztelhetsz anélkül, hogy az egyes tesztek költségei miatt aggódnod kellene.
Nyilvánvalóan kompromisszumot kell kötni a nyersanyag minőségét illetően. A legfejlettebb felhőalapú modellekkel összehasonlítva, különösen, ha a hardver nem képes ilyen nagy modelleket kezelni, a helyi végrehajtásra optimalizált jelenlegi modellek több mint elegendő teljesítményt kínálnak a programozási, dokumentációs és elemzési feladatok széles skálájához.
Ha alkalmanként szüksége van hozzáférésre a felhőben található nagyon nagy modellekhezMindig kombinálhatod a két világot: használhatod az LM Studio-t a helyi munka nagy részéhez, és fenntarthatod az OpenAI API-t vagy más kereskedelmi API-kat nagyon speciális esetekre, ahol indokolt.
Használja az LM Studio helyi API-ját az alkalmazásaiból
Az LM Studio egyik legérdekesebb funkciója macOS rendszeren ez a helyi API. Ez az API a gépeden lévő porton keresztül teszi elérhetővé az alkalmazásodba betöltött modellt, lehetővé téve HTTP-kéréseket Pythonból, Node-ból, automatizálási szkriptekből vagy akár a kódszerkesztő-bővítményeidből.
Az ötlet egy távoli API működési mintájának lemásolása.Ahelyett, hogy egy felhőalapú végpontra küldenéd a kérést, egy helyi címre (például http://localhost:port) küldöd, ahol az LM Studio figyeli. Átadod neki a promptot és a generálási beállításokat, és a visszaadott szöveget JSON válaszként kapod meg.
A helyi API használatához meg kell nyitni az LM Studio-t. és a kívánt modell betöltődik a memóriába. Ha megpróbálod a hívást anélkül, hogy a modell aktív lenne, hibát vagy üres választ kapsz, ezért érdemes ellenőrizni, hogy minden készen áll-e a tesztek futtatása előtt.
Python fejlesztői környezetekben, példáulÍrhatsz egy kis szkriptet, amely promptokat küld a helyi végpontnak, és fogadja a válaszokat a feldolgozáshoz, mentéshez, folyamatokba integráláshoz vagy olyan ügynökök betáplálásához, amelyek egyszerre több eszközt kezelnek.
Ez a megközelítés ideális az ágensarchitektúrákkal való kísérletezéshez. Lokálisan az egyik komponens kezeli a modell meghívását az LM Studio-n keresztül, egy másik kezeli a külső eszközöket, és egy harmadik tartja karban a beszélgetés állapotát. Mindezt anélkül, hogy az adataid az internetre kerülnének, és a rendszer minden egyes iterációjáért fizetnél.
MCP, külső eszközök és LM Studio macOS rendszeren
Amikor az MCP-ről (Model Context Protocol) és a csatlakoztatott eszközökről beszélünkEgy olyan megközelítésre utalunk, amelyben a modell az eredeti betanításon túl, az érvelése során külső szolgáltatásokhoz, adatbázisokhoz vagy API-khoz férhet hozzá.
LM Studio, stabil helyi API biztosításávalNagyon jól illeszkedik „nyelvi motorként” egy MCP-n vagy hasonló ökoszisztémán belül, amelyben egy másik szoftverréteg felelős azért, hogy meghatározza, milyen eszközök érhetők el, milyen néven szerepelnek, és milyen eredményeket adnak vissza a modellnek.
Egy jó hardverrel rendelkező Mac gépenBeállíthat egy olyan architektúrát, ahol az LM Studio kiszolgálja az alapmodellt, míg egy MCP-kiszolgáló olyan eszközöket szervez, mint a helyi fájlokban való keresés, az adatbázis-lekérdezések, a belső API-khoz való hozzáférés vagy bizonyos szkriptek végrehajtása a rendszeren.
Így, még ha maga a modell nem is rendelkezik közvetlen internet-hozzáférésselA meghatározott protokoll és eszközök révén „szuperképességeket” adhatsz neki, hogy hatással legyen a környezetedre, mindig kézben tartva, hogy mit lehet és mit nem lehet megtenni.
Ügynökmérnöki feladatokhoz és speciális munkafolyamatokhozAz LM Studio + MCP macOS rendszeren történő kombinációja lehetővé teszi a szabad kísérletezést a változó felhasználási költség nyomása nélkül. Különösen érdekes, ha vállalati megoldásokat vagy olyan projekteket fejlesztesz, ahol az adatvédelem és a kontroll kiemelkedő fontosságú.
Gyakorlati esetek az LM Studio használatához Macen
A „mesterséges intelligenciával való játékon” túl az LM Studio nagyon specifikus munkafolyamatokhoz is alkalmas. a Mac mindennapi használata során, legyen szó akár fejlesztőről, kutatóról, tartalomkészítőről, vagy egyszerűen csak valakiről, aki többet szeretne kihozni a dokumentumaiból.
Programozáshoz és kódhiba-kereséshezFejlesztési feladatokhoz használhatsz helyben betanított vagy finomhangolt modelleket. Függvényeket vagy teljes fájlokat adsz át nekik, és megkéred őket, hogy keressenek hibákat, javítsák a struktúrát, fűzzenek hozzá megjegyzéseket, vagy generáljanak egységteszteket. Egy 32 GB RAM-mal rendelkező M1 Maxon a teljesítmény több mint elfogadható a középkategóriás modelleknél.
Ha író vagy tartalomkészítő vagyAz LM Studio segíthet cikkek, e-mailek, videóforgatókönyvek vagy közösségi média bejegyzések tervezeteinek megírásában. A csevegés jól definiált promptokkal és RAG-okkal való kombinálása a referenciadokumentumokkal rengeteg dokumentációs és átírási időt takarít meg.
Fordítási és szöveglektorálási feladatokbanA helyi modellek nagyon hasznosak bekezdések fordításához, stílusjavításhoz vagy hangnem módosításához. Lefuttathatod őket az LM Studio segítségével, és kérhetsz konkrét javításokat, például „tegyél formálisabbá”, „használj spanyolt spanyolul” vagy „távolítsd el a túlságosan technikai kifejezéseket”.
Nagy dokumentumok elemzésére és összefoglalására is használhatod.Jelentések, jegyzőkönyvek, projektdokumentációk, műszaki kézikönyvek stb. A PDF fájlokat az RAG segítségével töltheti fel, és megkérheti a modellt, hogy készítsen összefoglalókat, főbb pontok vázlatát, vagy kinyerjen belőlük konkrét információkat.
Személyes rendszerezéshez és a saját fájljaiban való kereséshezAz LM Studio RAG-gal szinte olyan, mintha egy intelligens keresőmotor lenne a dokumentummappád felett: beadod neki a jegyzeteidet, szerződéseidet, leveleidet vagy naplóidat, majd témák, dátumok, nevek vagy fogalmak alapján keresel, így közvetlen válaszokat kapsz az eredmények egyszerű listája helyett.
Röviden, az LM Studio a Mac-edet egy kis helyi MI-központtá alakítja. ahol kísérletezhetsz nyelvi modellekkel, integrálhatod őket saját eszközeiddel, és előmozdíthatod az ügynök-, automatizálási és információelemzési projekteket magas szintű adatvédelem, kontroll és rugalmasság mellett, anélkül, hogy bármilyen külső API feltételeihez vagy árához lennél kötve.

