Google Hirdetés

Qwen3 Frissítés Érkezett

Bevezettük a Qwen3-30B-A3B-Instruct-2507 frissített modellt, amely jelentős általános képességekkel, többnyelvű tudással és kiemelkedő hosszú kontextus-feldolgozási teljesítménnyel rendelkezik. A modell kiválóan alkalmazkodik a felhasználói preferenciákhoz és hatékony eszközkészlettel rendelkezik. Tekintse meg részletesebb információkért a hivatalos dokumentációt és teljesítményteszteket!

&NewLine; <p><p>A Qwen3-30B-A3B-Instruct-2507 modell jelent&odblac;s fejlesztéseket mutat be a Qwen3-30B-A3B nem-gondolkodó mód frissített változataként&period; A modell általános képességeiben – beleértve az utasítások követését&comma; a logikai gondolkodást&comma; a szövegértelmezést&comma; a matematikát&comma; a tudományt&comma; a kódolást és az eszközhasználatot – jelent&odblac;s javulást ért el&period; Többnyelv&udblac;&comma; ritka tudásanyagok lefedettsége szempontjából is nagyobb teljesítményt nyújt&comma; és jobban illeszkedik a felhasználói preferenciákhoz szubjektív és nyitott feladatokban&comma; ami hasznosabb válaszokat és magasabb min&odblac;ség&udblac; szöveggenerálást tesz lehet&odblac;vé&period; Emellett kiemelked&odblac; a 256K hosszú kontextus feldolgozási képessége&comma; amely tovább b&odblac;víthet&odblac; akár 1 millió tokenig speciális konfigurációval&period;<&sol;p><p>A modell architektúrája 30&comma;5 milliárd paraméterb&odblac;l áll&comma; melyb&odblac;l 3&comma;3 milliárd aktív&comma; 48 réteggel&comma; 32 Q és 4 KV figyelmi fejjel&comma; valamint 128 szakért&odblac;b&odblac;l&comma; melyb&odblac;l 8 aktiválva van&period; A natív kontextushossz 262 144 token&period; A modell kizárólag nem-gondolkodó módban m&udblac;ködik&comma; és nem generál <think><&sol;think> blokkokat&period; Teljesítményét számos benchmarkon tesztelték&comma; ahol kiemelked&odblac; eredményeket ért el az MMLU-Pro&comma; a GPQA&comma; az AIME25&comma; a LiveCodeBench és más területeken&comma; versenytársainál – mint a Deepseek-V3&comma; a GPT-4o és a Gemini-2&period;5-Flash – gyakran magasabb pontszámokat elérve&period;<&sol;p><p>A modell használatához a legfrissebb Hugging Face transformers verzió szükséges&comma; és támogatja az OpenAI-kompatibilis API végpontok létrehozását az SGLang vagy a vLLM segítségével&period; Emellett integrálva van a Qwen-Agent eszközhívási képességeivel&comma; leegyszer&udblac;sítve az agent-alapú felhasználást&period; A hosszú kontextus feldolgozás érdekében Dual Chunk Attention &lpar;DCA&rpar; és MInference technológiákat alkalmaz&comma; amelyek jelent&odblac;s sebességnövekedést és hatékonyságot biztosítanak&period; Az 1 millió tokenes kontextus kezeléséhez körülbelül 240 GB GPU memória szükséges&comma; és részletes konfigurációs lépések szükségesek a vLLM vagy SGLang szerverek indításához&period;<&sol;p><p>Ajánlott beállítások között szerepel a Temperature&equals;0&period;7&comma; TopP&equals;0&period;8&comma; TopK&equals;20 és MinP&equals;0&comma; valamint a presence&lowbar;penalty beállítása ismétl&odblac;dések csökkentésére&period; A kimenet standardizálására promptok használata javasolt&comma; különösen matematikai és többszörös választásos feladatok esetén&period; A modell teljesítményét hosszú kontextusban a RULER benchmarkon tesztelték&comma; ahol a Qwen3-30B-A3B-Instruct-2507 kimagasló pontszámokat ért el akár 1 millió tokenes bemenetek esetén is&period;<&sol;p><br><&sol;p>&NewLine; <p>Ez a cikk a Neural News AI &lpar;V1&rpar; verziójával készült&period;<&sol;p>&NewLine; <p>Forrás&colon; <a href&equals;"https&colon;&sol;&sol;huggingface&period;co&sol;Qwen&sol;Qwen3-30B-A3B-Instruct-2507" target&equals;"&lowbar;blank" rel&equals;"noopener noreferrer">https&colon;&sol;&sol;huggingface&period;co&sol;Qwen&sol;Qwen3-30B-A3B-Instruct-2507<&sol;a>&period;<&sol;p>&NewLine; <p>A képet <a href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;photos&sol;a-close-up-of-a-yellow-and-red-stop-sign-ygA0pyKw9i8" target&equals;"&lowbar;blank" rel&equals;"noopener noreferrer">Kaede M<&sol;a> készítette&comma; mely az <a href&equals;"https&colon;&sol;&sol;unsplash&period;com&sol;&commat;kaede&lowbar;photo" target&equals;"&lowbar;blank" rel&equals;"noopener noreferrer">Unsplash<&sol;a>-on található&period;<&sol;p>&NewLine;

Hírdetés