DeepSeek introducerar nya avancerade AI-resonemangsmodeller

  • DeepSeek lanserar modellerna DeepSeek-V3.2 och V3.2-Speciale med fokus på resonemang och verktygsanvändning.
  • Företaget hävdar att prestandan är jämförbar med GPT-5 och Gemini-3.0-Pro i tester för offentliga resonemang.
  • Framstegen bygger på massiv syntetisk data, spridd uppmärksamhet och ett starkt engagemang för öppen källkod.
  • Utmaningar kvarstår vad gäller effektivitet, kunskap om världen och potentiella regulatoriska begränsningar för dess globala expansion.

DeepSeeks modeller för artificiell intelligens

Det kinesiska företaget DeepSeek har inbruten igen I kapplöpningen om artificiell intelligens har det officiella tillkännagivandet av två avancerade resonemangsmodeller gjorts: DeepSeek-V3.2 och dess variant med högre kapacitet, DeepSeek-V3.2-Speciale. Båda systemen presenteras som nästa iteration av en experimentell modell som lanserades för flera veckor sedan och syftar till att kombinera sofistikerat resonemang med autonomt utförande av handlingar.

I ett sammanhang präglat av Handelsrestriktioner för halvledare och hård konkurrens med USADet Hangzhou-baserade företaget hävdar att dessa modeller är i nivå med riktmärken som OpenAI:s GPT-5 och Google Gemini-3.0-Pro i flera offentliga resonemangsprov. Åtgärden förstärker Kinas offensiv inom området stora öppna och multimodala modeller, en sektor som Europa följer med allt större uppmärksamhet på grund av dess inverkan på industri- och teknikreglering.

DeepSeek-V3.2 och Speciale: resonemang på nivå med GPT-5 och Gemini

Enligt den tekniska dokumentationen som företaget självt släppt är DeepSeek-V3.2 tänkt som en modell för allmänt bruk, fokuserad på resonemang, kapabel att matcha prestandan hos GPT-5 i olika riktmärken standard. Dessa tester täcker uppgifter inom logik, abstraktion och komplex problemlösning, vilka kräver förmågor som liknar steg-för-steg-mänskligt resonemang.

Varianten DeepSeek-V3.2-Speciale är inriktad på krävande matematiska beräkningar och långsiktigt resonemang. DeepSeek hävdar att den här modellen inte bara närmar sig prestandan hos Gemini-3.0-Pro, utan till och med överträffar den i vissa scenarier, och rankas över GPT-5 i flera kognitiva kompetenstester. Företaget citerar som stödjande bevis guldmedaljer som erhållits i den internationella matematiska olympiaden och den internationella olympiaden i informatik, som används som ett riktmärke för att utvärdera AI:s förmåga att lösa mycket strukturerade problem.

De olika rapporter som spridits av kinesiska och internationella medier är överens om att DeepSeek försöker positionera dessa modeller som trovärdiga alternativ till de stora, slutna systemen i Silicon Valley. Även om jämförelserna baseras på utvalda mätvärden och laboratorietester är budskapet tydligt: Kinesiska öppna modeller De kan konkurrera med amerikanska ledare i specialiserade resonemangsuppgifter.

Ur teknisk synvinkel betonar företaget att V3.2-familjen kombinerar beräkningseffektivitet med hög prestanda i autonoma agentuppgifter. Det vill säga, de är utformade inte bara för att besvara frågor, utan också för att planera, bryta ner problem och utföra komplexa handlingssekvenser med relativt låg resursförbrukning.

DeepSeeks AI-modell i drift

Integrering av tankar med hjälp av verktyg

Ett av de mest slående delarna av reklamen är att DeepSeek-V3.2 integrerar inbyggt resonemang med användning av verktygDetta inkluderar allt från sökmotorer till kalkylatorer, kodexekutorer eller anrop till externa API:er, allt infogat i samma tankecykel.

  Handeln på CME avbryts av ett kylningsfel i datacenter

Företaget förklarar att systemet kan fungera i både en "tankesätt" som i ett standardlägeinförliva eller inte införliva explicita resonemangskedjor efter behov. Under den processen, modellen bestämmer när ett verktyg ska konsulteras, hur man tolkar resultatet och hur man integrerar det i det slutliga svaret, vilket leder till mer detaljerade och kontextanpassade lösningar inom områden som dataanalys, automatisering av arbetsflöden eller frågor i realtid.

Denna kombination av strukturerat resonemang och autonomt handlande Detta passar in i den nuvarande trenden mot AI-agenter: program som kan agera relativt självständigt för att uppnå mål, interagera med sin digitala miljö, utvärdera ny information och modifiera sina beslut utan ständig övervakning.

DeepSeek påstår sig också ha utvecklade en ny träningsmetod Specifikt utformade för dessa agenter, är målet att de inte bara ska lära sig hur de ska reagera, utan också hur de ska bestämma vilka steg de ska vidta för att slutföra en uppgift. Denna metod syftar till att förbereda modellerna för komplexa användningsfall, allt från avancerade affärsassistenter till stödsystem för vetenskapliga forskningsprojekt.

Spridd uppmärksamhet och fokus på beräkningseffektivitet

Det tekniska hjärtat i den nya modellfamiljen bygger på en egenutvecklad mekanism som kallas DeepSeek Sparse Attention, eller spridd uppmärksamhet. Denna arkitektur modifierar hur modellen bearbetar kontext, vilket minskar mängden information den utvärderar samtidigt utan att förlora de element som verkligen är relevanta för uppgiften.

I praktiken är denna teknik minskar beräkningskomplexiteten avsevärtDetta är en kritisk aspekt i modeller med breda kontextfönster, där varje ny token drastiskt ökar beräkningskostnaden. DeepSeek lovar att erbjuda omfattande kontexter och djupgående resonemang med lägre energiförbrukning, en faktor som kan visa sig avgörande för europeiska företag och datacenter som är oroliga för kostnader och miljöpåverkan.

Designen överensstämmer med en bredare branschtrend: prioritera effektivitet lika mycket som råkraftMed skjutande utbildnings- och driftsättningskostnader kan modeller som lyckas upprätthålla en god prestandanivå samtidigt som de minskar GPU- och energikostnaderna vara mycket attraktiva för organisationer som vill integrera avancerad AI i sina processer utan att mångdubbla sina budgetar.

DeepSeek medger dock att Deras modeller når fortfarande inte upp till de viktigaste amerikanska riktmärkena på två områden: tokeneffektivitet och bredd i världens kunskap.Företaget pekar på begränsningar i datorkapaciteten under förutbildningen som en av faktorerna som hindrar dem från att gå vidare, ett problem som är direkt kopplat till begränsningar i tillgången till avancerad hårdvara.

  Hur man använder emojis i Office: en komplett guide för Word och Outlook

Syntetiska data, agenter och öppen källkod

För att lära dessa modeller att resonera och agera har företaget använt en massiv samling syntetiska data fokuserade på AI-agenterEnligt de siffror som släppts innehåller träningsuppsättningen mer än 1 800 simulerade miljöer och cirka 85 000 komplexa instruktioner utformade för att reproducera interaktioner nära de i den verkliga världen.

Den här typen av data gör det möjligt för systemet Öva på beslutssekvenser, verktygsanvändning och att lösa kedjade uppgifter i en kontrollerad men mångsidig miljö, vilket minskar beroendet av känsliga eller skyddade uppgifter. För Europa, där data- och integritetsreglerna är särskilt stränga, kan dessa syntetiska metoder visa sig relevanta vid utvärdering av införandet av utländska modeller.

I enlighet med sin strategi har DeepSeek valt att Släpp modell V3.2 på öppna plattformar som Hugging Face och ModelScopeDetta underlättar åtkomsten för forskare, oberoende utvecklare och företag som vill experimentera med systemet eller anpassa det till sina egna användningsområden. Denna öppenhet står i kontrast till den mer restriktiva politiken hos vissa västerländska aktörer och kan uppmuntra dess införande i europeiska tekniska grupper med fokus på fri programvara.

Specialversionen, å andra sidan, Det kommer initialt att erbjudas via ett kommersiellt API.Med tanke på dess högre beräkningskostnad och tokenförbrukning försöker företaget balansera sitt engagemang för öppen källkod med behovet av att tjäna pengar på sina avancerade modeller, vilket också kan påverka hur europeiska företag får tillgång till dess mest avancerade funktioner.

Ett blomstrande kinesiskt ekosystem och regulatoriska spänningar

Lanseringen av V3.2-familjen kommer vid en tidpunkt då Den kinesiska AI-industrin försöker befästa sitt eget ledarskapsärskilt inom öppna och multimodala modeller. DeepSeek, grundat 2023, har specialiserat sig på stora språkliga och textbaserade modeller och ansluter sig till ett ekosystem som redan domineras av jättar som Baidu, Tencent och ... Alibaba chatbot.

Under de senaste veckorna har företaget även introducerat DeepSeek-OCREtt multimodalt system för att komprimera och bearbeta text baserat på visuell perception optimerad för att köras med färre datorresurser och släpptes som öppen källkod. Dessutom fick deras V3.1-modell ett gott rykte efter att ha lett ett automatiserat investeringsexperiment mot GPT-5 och Gemini 2.5 Pro, ett exempel på hur företaget använder offentliga demonstrationer för att testa sin styrka mot västerländska aktörer.

Olika analyser publicerade i asiatiska medier tyder på att Silicon Valley börjar titta närmare på konkurrenterna vad gäller kostnad och prestanda.De är båda konkurrenter vad gäller kostnad och prestanda och potentiella partners inom specifika forskningsområden. Geopolitiska spänningar och handelsrestriktioner komplicerar dock möjligheten till storskaliga, direkta samarbeten.

  Windows 11 KB5070311: Nyheter, kända buggar och problem

Samtidigt påpekar internationella experter att de strikta reglerna för censur och innehållskontroll Nuvarande regleringar i Kina kan hindra införandet av dessa modeller på västerländska marknader. Behovet av att filtrera bort vissa ämnen eller följa interna politiska riktlinjer kan kollidera med europeiska reglerings- och kulturella förväntningar, där debatten kretsar kring transparens, neutralitet och respekt för grundläggande rättigheter.

Potentiell påverkan i Europa och nästa steg

För europeiska företag och forskningscentra, Ankomsten av modeller som DeepSeek-V3.2 öppnar upp för en rad ytterligare alternativ till erbjudanden från amerikanska leverantörer. Betoningen på effektivitet och öppen källkod kan vara en bra lösning för organisationer som vill experimentera med högpresterande system utan att vara bundna till ett enda teknikekosystem.

Tillgängligheten av V3.2 i öppna arkiv gör det enklare Europeiska team kan granska, anpassa och, där så är lämpligt, integrera modellen i proprietära lösningar, allt från företagsassistenter till supportverktyg inom sektorer som utbildning, sjukvård och finans. Det potentiella beroendet av externa API:er för att få åtkomst till Speciale-varianten väcker dock frågor om teknisk suveränitet och dataskydd.

Parallellt går Europeiska unionen vidare med genomförandet av sina regelverk för artificiell intelligensDetta kommer att kräva att leverantörer av högrisksystem uppfyller strikta krav på transparens, säkerhet och styrning. All utplacering av utländska modeller, inklusive DeepSeeks, kommer att behöva anpassa sig till dessa regler om de vill verka inom reglerade sektorer.

Företaget medger själva att det fortfarande Den behöver förbättras inom allmän kunskap och tokeneffektivitet.Detta är två relevanta faktorer i storskaliga tillämpningar. Deras färdplan innebär att utöka beräkningskapaciteten och ytterligare förfina både arkitekturen och träningsdata, samtidigt som de bibehåller sitt engagemang för agenter som kan kombinera resonemang och autonom handling.

Med dessa nya modeller positionerar sig DeepSeek som en av de mest aktiva aktörerna på den kinesiska AI-scenen med öppen källkodAtt tänja på gränserna för automatiserat resonemang och beräkningseffektivitet i ett sammanhang som präglas av internationell teknologisk rivalitet. För Europa lägger dess framväxt ytterligare en pjäs till ett redan komplext schackbräde, där beslut om vilka modeller som ska antas, hur de ska regleras och med vilka man ska samarbeta kommer att få en allt större inverkan på kontinentens konkurrenskraft och digitala autonomi.

Google presenterar Gemini 3: deras mest avancerade AI
Relaterad artikel:
Google lanserar Gemini 3, dess mest avancerade och multimodala AI