Neural hírek logo

Qwen3 Frissítés Érkezett

Bevezettük a Qwen3-30B-A3B-Instruct-2507 frissített modellt, amely jelentős általános képességekkel, többnyelvű tudással és kiemelkedő hosszú kontextus-feldolgozási teljesítménnyel rendelkezik. A modell kiválóan alkalmazkodik a felhasználói preferenciákhoz és hatékony eszközkészlettel rendelkezik. Tekintse meg részletesebb információkért a hivatalos dokumentációt és teljesítményteszteket!
Google Hirdetés

A Qwen3-30B-A3B-Instruct-2507 modell jelentős fejlesztéseket mutat be a Qwen3-30B-A3B nem-gondolkodó mód frissített változataként. A modell általános képességeiben – beleértve az utasítások követését, a logikai gondolkodást, a szövegértelmezést, a matematikát, a tudományt, a kódolást és az eszközhasználatot – jelentős javulást ért el. Többnyelvű, ritka tudásanyagok lefedettsége szempontjából is nagyobb teljesítményt nyújt, és jobban illeszkedik a felhasználói preferenciákhoz szubjektív és nyitott feladatokban, ami hasznosabb válaszokat és magasabb minőségű szöveggenerálást tesz lehetővé. Emellett kiemelkedő a 256K hosszú kontextus feldolgozási képessége, amely tovább bővíthető akár 1 millió tokenig speciális konfigurációval.

A modell architektúrája 30,5 milliárd paraméterből áll, melyből 3,3 milliárd aktív, 48 réteggel, 32 Q és 4 KV figyelmi fejjel, valamint 128 szakértőből, melyből 8 aktiválva van. A natív kontextushossz 262 144 token. A modell kizárólag nem-gondolkodó módban működik, és nem generál blokkokat. Teljesítményét számos benchmarkon tesztelték, ahol kiemelkedő eredményeket ért el az MMLU-Pro, a GPQA, az AIME25, a LiveCodeBench és más területeken, versenytársainál – mint a Deepseek-V3, a GPT-4o és a Gemini-2.5-Flash – gyakran magasabb pontszámokat elérve.

A modell használatához a legfrissebb Hugging Face transformers verzió szükséges, és támogatja az OpenAI-kompatibilis API végpontok létrehozását az SGLang vagy a vLLM segítségével. Emellett integrálva van a Qwen-Agent eszközhívási képességeivel, leegyszerűsítve az agent-alapú felhasználást. A hosszú kontextus feldolgozás érdekében Dual Chunk Attention (DCA) és MInference technológiákat alkalmaz, amelyek jelentős sebességnövekedést és hatékonyságot biztosítanak. Az 1 millió tokenes kontextus kezeléséhez körülbelül 240 GB GPU memória szükséges, és részletes konfigurációs lépések szükségesek a vLLM vagy SGLang szerverek indításához.

Ajánlott beállítások között szerepel a Temperature=0.7, TopP=0.8, TopK=20 és MinP=0, valamint a presence_penalty beállítása ismétlődések csökkentésére. A kimenet standardizálására promptok használata javasolt, különösen matematikai és többszörös választásos feladatok esetén. A modell teljesítményét hosszú kontextusban a RULER benchmarkon tesztelték, ahol a Qwen3-30B-A3B-Instruct-2507 kimagasló pontszámokat ért el akár 1 millió tokenes bemenetek esetén is.


Ez a cikk a Neural News AI (V1) verziójával készült.

Forrás: https://huggingface.co/Qwen/Qwen3-30B-A3B-Instruct-2507.

A képet Kaede M készítette, mely az Unsplash-on található.

Hírdetés
Hírdetés

Neural hírek

A mélytengeri bányászat tesztjei több mint egyharmadával csökkentik a tengerfenéki állatok számát – mutatja egy új tanulmány. A kutatók a Csendes-óceán egy távoli részén több
A Thermomix TM7 átfogó tesztek alapján: ez a sokfunkciós konyhai robot valóban lecserélhet egy teljes szekrénynyi készüléket? A prémium árkategóriájú eszköz interaktív, tabletes kijelzővel és
A BBC vezetőség komolyan veszi a "rendszerszintű elfogultság" vádjait, nyilatkozta Lisa Nandy kultuszminiszter. A kormányzati nyomás fokozódik egy, a The Telegraph által közzétett szivárgott belső
A JAX segítségével a közgazdászok is elérhetik a nagy teljesítményű számításokat, akár egy közönséges laptopról is. A Central Bank of Chile esete példázza, hogy a
A BBC vezetőség komolyan veszi a „rendszerszintű elfogultság” vádjait, kijelentette a kulturális miniszter. A botrány egy, Donald Trump korábbi beszédét szerkesztő Panorama-dokumentumfilm körül pattant ki,
Tadcasteri gimnázium tanulója vesztette életét egy minibusz-balesetben, amelyet az iskola "elképzelhetetlen tragédiaként" említ. A balesetben egy tizenéves lány életét vesztette, míg több sérültet kórházba szállítottak.
Google Hirdetés

Kertészet