Am încercat un rival local, open-source și complet gratuit pentru Claude Code - iată cum a fost
Scris de David Gewirtz, Editor Contribuitor Senior, pe 8 februarie 2026. Jack Dorsey, fondatorul Twitter (acum X), Square (acum Block) și Bluesky, a publicat în luna iulie o declarație criptică pe X, spunând "goose + qwen3-coder = wow". De atunci, interesul pentru Goose și Qwen3-coder a crescut. Potrivit zdnet.com, Goose, dezvoltat de compania lui Dorsey, Block, este un cadru de agenți open-source, similar cu Claude Code, iar Qwen3-coder este un model lingvistic centrat pe programare, similar cu Sonnet-4.5.
👉 Descrierea și scopul proiectului
Acestea sunt ambele gratuite și se sugerează că împreună pot crea un competitor complet gratuit pentru Claude Code. Dar pot face asta cu adevărat? Am decis să aflu. Acesta este primul din trei articole care vor discuta despre integrarea Goose (cadru de agenți), Ollama (server LLM) și Qwen3-coder (LLM). În acest articol, vă voi arăta cum să le faceți pe toate să funcționeze.
👉 Instalare și configurare pentru Goose și Ollama
Construiesc acest proiect pe Mac-ul meu, dar puteți instala toate cele trei unelte pe mașina dvs. Windows sau Linux. Va trebui să începeți prin a descărca atât Goose, cât și Ollama. Am descărcat și instalat prima dată Goose, dar nu am reușit să îi dau legătura cu Ollama. Îmi imaginați ce am greșit? Da, nu descărcasem și setasem Ollama. Recomandarea mea este să instalați mai întâi Ollama.
Trebuie să descărcați Ollama. Apoi, faceți dublu clic pe installer. Odată ce aplicația se încarcă, veți vedea o interfață asemănătoare unei camere de chat. În dreapta, veți vedea modelul. A fost setat pe gpt-oss-20b. Alegeți modelul Qwen3-coder:30b, care se referă la numărul de parametrii modelului. Acesta este un model optimizat pentru programare, având aproximativ 30 de miliarde de parametri.
Notă: modelul nu va descărca nimic până nu este forțat să răspundă la o cerere. Am scris cuvântul "test" și modelul s-a descărcat. Rețineți că acest model are 17GB, așa că asigurați-vă că aveți suficient spațiu de stocare. Acest aspect evidențiază unul dintre marii benefici ai acestui proiect. AI-ul dvs. este local, rulând pe mașina dvs. Nu trimiteți nimic în cloud.
Odată ce ați instalat Qwen3-coder, trebuie să faceți instanța Ollama vizibilă pentru alte aplicații de pe computerul dvs. Alegeți Setări din meniul Ollama. Activați opțiunea "Expose Ollama to the network". Am lăsat Ollama să se instaleze în directorul .ollama, această abordare ascunzând directorul, așa că amintiți-vă că aveți un fișier de 17GB îngropat acolo.
Am setat lungimea contextului la 32K. Am 128GB RAM pe mașina mea, așa că dacă încep să rămân fără context, o să-l cresc. De asemenea, observați că nu m-am conectat la Ollama. Puteți crea un cont și utiliza unele servicii cloud, dar încercăm să facem acest lucru complet gratuit și local, așa că evit conectarea oricând este posibil.
În cele din urmă, să instalăm Goose. Rulați installerul. La prima lansare a lui Goose, veți obține un ecran de bun-venit. Alegeți opțiunea de configurare "Other Providers" și faceți clic pe "Go to Provider Settings". Aici veți vedea o listă mare de diverse unelte pentru agenți și LLM-uri pe care le puteți rula. Găsiți Ollama, apoi faceți clic pe Configure.
Odată ce ați terminat acest pas, veți fi întrebat să configurați Ollama, dar ceea ce faceți este să configurați conexiunea, în acest caz, către Ollama. Veți fi întrebat să alegeți un model - din nou, alegeți qwen3-coder:30b. Odată ce ați ales atât Ollama, cât și qwen3-coder:30b, faceți clic pe Select Model.
Felicitări. Ați instalat și configurat acum un agent de codare local, care rulează pe computerul dvs. Așa cum se întâmplă cu aproape orice alt chatbot, veți dori să scrieți o cerere în zona de prompturi. Dar mai întâi, e bine să lăsați Goose să știe directorul pe care îl veți folosi. Pentru testul meu inițial, am setat Goose să lucreze dintr-un folder temporar.
Ca prim test, am folosit provocarea mea standard – construirea unui plugin simplu pentru WordPress. În prima încercare, Goose/Qwen3 a eșuat, generând un plugin care nu a funcționat. În cele două încercări următoare, explicând lui Goose/Qwen3 ce nu a funcționat, tot a eșuat. După a treia încercare, a realizat randomizarea, dar nu a urmat complet instrucțiunile, ceea ce a contrazis scopul original al pluginului.
👉 Evaluarea performanței și impresii finale
Ce părere am despre această abordare? Am fost dezamăgit că a durat cinci încercări pentru ca Goose să facă testul corect. Când am testat o serie de chatboți gratuiti cu această sarcină, toți, cu excepția Grok și a unui Gemini 3 pre-Gemini, au reușit testul corect din prima încercare. O mare diferență între codarea chatbot-ului și codarea agentică este că uneltele de codare agentică, precum Claude Code și Goose, lucrează la codul sursă real. De aceea, corecțiile repetate îmbunătățesc baza efectivă de cod.
Până acum, am rulat un test de programare fairly simplu, dar am constatat că performanța generală este destul de bună. Nu am observat o diferență tangibilă între timpul de răspuns al instanței locale care rulează Goose pe Mac Studio-ul meu și produsele hibride locale/cloud, precum Claude Code și OpenAI Codex, care folosesc infrastructurile enorme ale companiilor AI. Acestea fiind spuse, sunt doar primele impresii.
Voi putea să vă spun dacă consider că această soluție gratuită poate înlocui opțiunile costisitoare precum planul Max de la Claude Code, care costă 100 $/lunar, sau planul Pro de la OpenAI, care costă 200 $/lunar, odată ce voi rula un proiect important prin acesta. Ați încercat să rulați un LLM centrat pe codare local cu unelte precum Goose, Ollama sau Qwen? Cum a decurs instalarea pentru voi și pe ce hardware îl rulați? Dacă ați folosit opțiuni cloud precum Claude sau OpenAI Codex, cum se compară performanța locală și calitatea output-ului?
Urmați actualizările mele zilnice ale proiectului pe rețelele sociale.