<p><p>A Qwen3-30B-A3B-Instruct-2507 modell jelentős fejlesztéseket mutat be a Qwen3-30B-A3B nem-gondolkodó mód frissített változataként. A modell általános képességeiben – beleértve az utasítások követését, a logikai gondolkodást, a szövegértelmezést, a matematikát, a tudományt, a kódolást és az eszközhasználatot – jelentős javulást ért el. Többnyelvű, ritka tudásanyagok lefedettsége szempontjából is nagyobb teljesítményt nyújt, és jobban illeszkedik a felhasználói preferenciákhoz szubjektív és nyitott feladatokban, ami hasznosabb válaszokat és magasabb minőségű szöveggenerálást tesz lehetővé. Emellett kiemelkedő a 256K hosszú kontextus feldolgozási képessége, amely tovább bővíthető akár 1 millió tokenig speciális konfigurációval.</p><p>A modell architektúrája 30,5 milliárd paraméterből áll, melyből 3,3 milliárd aktív, 48 réteggel, 32 Q és 4 KV figyelmi fejjel, valamint 128 szakértőből, melyből 8 aktiválva van. A natív kontextushossz 262 144 token. A modell kizárólag nem-gondolkodó módban működik, és nem generál <think></think> blokkokat. Teljesítményét számos benchmarkon tesztelték, ahol kiemelkedő eredményeket ért el az MMLU-Pro, a GPQA, az AIME25, a LiveCodeBench és más területeken, versenytársainál – mint a Deepseek-V3, a GPT-4o és a Gemini-2.5-Flash – gyakran magasabb pontszámokat elérve.</p><p>A modell használatához a legfrissebb Hugging Face transformers verzió szükséges, és támogatja az OpenAI-kompatibilis API végpontok létrehozását az SGLang vagy a vLLM segítségével. Emellett integrálva van a Qwen-Agent eszközhívási képességeivel, leegyszerűsítve az agent-alapú felhasználást. A hosszú kontextus feldolgozás érdekében Dual Chunk Attention (DCA) és MInference technológiákat alkalmaz, amelyek jelentős sebességnövekedést és hatékonyságot biztosítanak. Az 1 millió tokenes kontextus kezeléséhez körülbelül 240 GB GPU memória szükséges, és részletes konfigurációs lépések szükségesek a vLLM vagy SGLang szerverek indításához.</p><p>Ajánlott beállítások között szerepel a Temperature=0.7, TopP=0.8, TopK=20 és MinP=0, valamint a presence_penalty beállítása ismétlődések csökkentésére. A kimenet standardizálására promptok használata javasolt, különösen matematikai és többszörös választásos feladatok esetén. A modell teljesítményét hosszú kontextusban a RULER benchmarkon tesztelték, ahol a Qwen3-30B-A3B-Instruct-2507 kimagasló pontszámokat ért el akár 1 millió tokenes bemenetek esetén is.</p><br></p>
 <p>Ez a cikk a Neural News AI (V1) verziójával készült.</p>
 <p>Forrás: <a href="https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507" target="_blank" rel="noopener noreferrer">https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507</a>.</p>
 <p>A képet <a href="https://unsplash.com/photos/a-close-up-of-a-yellow-and-red-stop-sign-ygA0pyKw9i8" target="_blank" rel="noopener noreferrer">Kaede M</a> készítette, mely az <a href="https://unsplash.com/@kaede_photo" target="_blank" rel="noopener noreferrer">Unsplash</a>-on található.</p>

Qwen3 Frissítés Érkezett
Bevezettük a Qwen3-30B-A3B-Instruct-2507 frissített modellt, amely jelentős általános képességekkel, többnyelvű tudással és kiemelkedő hosszú kontextus-feldolgozási teljesítménnyel rendelkezik. A modell kiválóan alkalmazkodik a felhasználói preferenciákhoz és hatékony eszközkészlettel rendelkezik. Tekintse meg részletesebb információkért a hivatalos dokumentációt és teljesítményteszteket!