За BMS, BUS, индустријски, инструментални кабл.

Како се Пролећни фестивал ближи крају, узбуђење око DeepSeek-а остаје јако. Недавни празник је истакао значајан осећај конкуренције унутар технолошке индустрије, а многи су дискутовали и анализирали овог „сома“. Силицијумска долина доживљава невиђени осећај кризе: заговорници отвореног кода поново износе своја мишљења, па чак и OpenAI преиспитује да ли је његова стратегија затвореног кода била најбољи избор. Нова парадигма нижих трошкова рачунарства покренула је ланчану реакцију међу чип гигантима попут Nvidia-е, што је довело до рекордних губитака тржишне вредности у једном дану у историји америчке берзе, док владине агенције истражују усклађеност чипова које користи DeepSeek. Усред помешаних критика DeepSeek-а у иностранству, на домаћем тржишту, он доживљава изванредан раст. Након лансирања модела R1, повезана апликација је забележила пораст саобраћаја, што указује да ће раст у секторима апликација покренути целокупни AI екосистем напред. Позитиван аспект је што ће DeepSeek проширити могућности апликација, што сугерише да ослањање на ChatGPT неће бити толико скупо у будућности. Ова промена се одразила у недавним активностима OpenAI-а, укључујући пружање модела резоновања под називом o3-mini бесплатним корисницима као одговор на DeepSeek R1, као и накнадне надоградње које су учиниле ланац мисли o3-mini јавним. Многи страни корисници су изразили захвалност DeepSeek-у на овим достигнућима, иако овај ланац мисли служи као резиме.
Оптимистично, очигледно је да DeepSeek обједињује домаће играче. Са фокусом на смањење трошкова обуке, различити произвођачи чипова, посреднички добављачи услуга у облаку и бројни стартапови активно се придружују екосистему, побољшавајући исплативост коришћења DeepSeek модела. Према радовима DeepSeek-а, комплетна обука V3 модела захтева само 2,788 милиона сати H800 GPU-а, а процес обуке је веома стабилан. MoE (мешавина стручњака) архитектура је кључна за смањење трошкова претходне обуке за фактор десет у поређењу са Llama 3 са 405 милијарди параметара. Тренутно, V3 је први јавно признати модел који показује тако високу реткост у MoE. Поред тога, MLA (вишеслојна пажња) делује синергистички, посебно у аспектима резоновања. „Што је MoE ређи, већа је величина серије потребна током резоновања да би се у потпуности искористила рачунарска снага, при чему је величина KVCache-а кључни ограничавајући фактор; MLA значајно смањује величину KVCache-а“, приметио је истраживач из Chuanjing Technology у анализи за AI Technology Review. Генерално, успех компаније DeepSeek лежи у комбинацији различитих технологија, а не само једне. Стручњаци из индустрије хвале инжењерске способности DeepSeek тима, истичући њихову изврсност у паралелној обуци и оптимизацији оператера, постижући револуционарне резултате усавршавањем сваког детаља. DeepSeek-ов приступ отвореног кода додатно подстиче укупни развој великих модела, и очекује се да ће, ако се слични модели прошире на слике, видео записе и још много тога, то значајно стимулисати потражњу у целој индустрији.
Могућности за услуге резоновања трећих страна
Подаци показују да је од свог објављивања, DeepSeek прикупио 22,15 милиона дневно активних корисника (DAU) за само 21 дан, достигавши 41,6% корисничке базе ChatGPT-а и премашивши 16,95 милиона дневно активних корисника Doubao-а, чиме је постао најбрже растућа апликација на свету, предњачећи на Apple App Store-у у 157 земаља/региона. Међутим, док су корисници хрлили у масовном броју, сајбер хакери су неуморно нападали DeepSeek апликацију, узрокујући значајно оптерећење њених сервера. Аналитичари индустрије верују да је то делимично због тога што DeepSeek користи картице за обуку, а нема довољно рачунарске снаге за расуђивање. Инсајдер из индустрије је рекао за AI Technology Review: „Чести проблеми са серверима могу се лако решити наплаћивањем накнада или финансирањем за куповину више машина; на крају крајева, то зависи од одлука DeepSeek-а.“ Ово представља компромис у фокусирању на технологију наспрам продуктизације. DeepSeek се у великој мери ослањао на квантну квантизацију за самоодрживост, добивши мало спољног финансирања, што је резултирало релативно ниским притиском на новчани ток и чистијим технолошким окружењем. Тренутно, у светлу горе поменутих проблема, неки корисници позивају DeepSeek на друштвеним мрежама да подигне прагове коришћења или уведе плаћене функције како би побољшао удобност корисника. Поред тога, програмери су почели да користе званични API или API-је трећих страна за оптимизацију. Међутим, отворена платформа DeepSeek-а је недавно објавила: „Тренутни серверски ресурси су оскудни, а допуне API услуга су обустављене.“
Ово несумњиво отвара више могућности за добављаче трећих страна у сектору вештачке интелигенције. Недавно су бројни домаћи и међународни гиганти у облаку покренули DeepSeek-ове API-је за моделе – прекоморски гиганти Microsoft и Amazon били су међу првима који су се придружили крајем јануара. Домаћи лидер, Huawei Cloud, направио је први потез, објавивши DeepSeek R1 и V3 сервисе за резоновање у сарадњи са Flow-ом, базираним на Silicon-у, 1. фебруара. Извештаји AI Technology Review-а указују на то да су сервиси Flow-а, базираног на Silicon-у, доживели прилив корисника, што је ефикасно „срушило“ платформу. Три велике технолошке компаније – BAT (Baidu, Alibaba, Tencent) и ByteDance – такође су издале јефтине, временски ограничене понуде почев од 3. фебруара, подсећајући на прошлогодишње ратове цена добављача облака које је изазвало лансирање DeepSeek-овог V2 модела, где је DeepSeek почео да се назива „касапарином цена“. Френетична дејства добављача услуга у облаку одражавају раније јаке везе између Microsoft Azure-а и OpenAI-а, где је Microsoft 2019. године уложио значајну милијарду долара у OpenAI и остварио користи након лансирања ChatGPT-а 2023. године. Међутим, ова блиска веза је почела да се погоршава након што је Meta објавила Llama-у са отвореним кодом, омогућавајући другим добављачима ван Microsoft Azure екосистема да се такмиче са њиховим великим моделима. У овом случају, DeepSeek је не само надмашио ChatGPT по питању загревања производа, већ је и представио моделе отвореног кода након објављивања o1, слично узбуђењу које је околно око Llama-иног оживљавања GPT-3.
У стварности, добављачи услуга у облаку се такође позиционирају као саобраћајне капије за вештачку интелигенцију (AI) апликације, што значи да продубљивање веза са програмерима доводи до превентивних предности. Извештаји показују да је Baidu Smart Cloud имао преко 15.000 купаца који су користили DeepSeek модел путем Qianfan платформе на дан лансирања модела. Поред тога, неколико мањих фирми нуди решења, укључујући Flow заснован на силицијуму, Luchen Technology, Chuanjing Technology и разне добављаче AI инфраструктуре који су покренули подршку за DeepSeek моделе. AI Technology Review је сазнао да тренутне могућности оптимизације за локализоване имплементације DeepSeek-а првенствено постоје у две области: једна је оптимизација карактеристика оскудице MoE модела коришћењем приступа мешовитог резоновања за локално имплементирање MoE модела са 671 милијардом параметара, уз коришћење хибридне GPU/CPU инференције. Поред тога, оптимизација MLA је од виталног значаја. Међутим, два DeepSeek модела се и даље суочавају са неким изазовима у оптимизацији имплементације. „Због величине модела и бројних параметара, оптимизација је заиста сложена, посебно за локалне имплементације где ће постизање оптималне равнотеже између перформанси и трошкова бити изазовно“, изјавио је истраживач из Chuanjing Technology. Најзначајнија препрека лежи у превазилажењу ограничења капацитета меморије. „Усвајамо хетерогени приступ сарадњи како бисмо у потпуности искористили процесоре и друге рачунарске ресурсе, постављајући само недељене делове ретке MoE матрице на CPU/DRAM за обраду помоћу високоперформансних CPU оператора, док густи делови остају на GPU-у“, даље је објаснио. Извештаји указују да Чуањингов оквир отвореног кода KTransformers првенствено убризгава различите стратегије и операторе у оригиналну имплементацију Трансформера путем шаблона, значајно побољшавајући брзину закључивања користећи методе попут CUDAGraph-а. DeepSeek је створио могућности за ове стартапове, јер користи од раста постају очигледне; многе фирме су пријавиле приметан раст броја купаца након покретања DeepSeek API-ја, примајући упите од претходних клијената који траже оптимизације. Инсајдери из индустрије су приметили: „У прошлости, донекле успостављене групе клијената су често биле везане за стандардизоване услуге већих компанија, чврсто везане својим трошковним предностима због обима. Међутим, након завршетка имплементације DeepSeek-R1/V3 пре Пролећног фестивала, изненада смо добили захтеве за сарадњу од неколико познатих клијената, па су чак и претходно успавани клијенти покренули контакт како бисмо представили наше DeepSeek услуге.“ Тренутно се чини да DeepSeek све више доприноси значају перформанси закључивања модела, а са ширим усвајањем великих модела, ово ће наставити значајно да утиче на развој индустрије вештачке интелигенције (AI Infra). Ако би се модел на нивоу DeepSeek-а могао локално применити по ниској цени, то би у великој мери помогло напорима владе и предузећа у дигиталној трансформацији. Међутим, изазови и даље постоје, јер неки клијенти могу имати велика очекивања у вези са могућностима великих модела, што чини очигледнијим да балансирање перформанси и трошкова постаје кључно у практичној примени.
Да бисте проценили да ли је DeepSeek бољи од ChatGPT-а, важно је разумети њихове кључне разлике, предности и случајеве употребе. Ево свеобухватног поређења:
Карактеристика/аспект | ДипСеек | ChatGPT |
---|---|---|
Власништво | Развијено од стране кинеске компаније | Развијено од стране OpenAI-а |
Изворни модел | Отвореног кода | Власничко |
Цена | Бесплатно за коришћење; јефтиније опције приступа API-ју | Цена претплате или плаћања по коришћењу |
Прилагођавање | Веома прилагодљив, што корисницима омогућава да га подешавају и надограђују | Ограничено прилагођавање је доступно |
Учинковитост у одређеним задацима | Одличан је у одређеним областима као што су анализа података и претраживање информација | Свестрана са снажним учинком у креативном писању и конверзационим задацима |
Језичка подршка | Снажан фокус на кинески језик и културу | Широка језичка подршка, али усмерена на САД |
Трошкови обуке | Нижи трошкови обуке, оптимизовано за ефикасност | Виши трошкови обуке, што захтева значајне рачунарске ресурсе |
Варијација одговора | Може понудити различите одговоре, вероватно под утицајем геополитичког контекста | Доследни одговори засновани на подацима обуке |
Циљна публика | Намењено програмерима и истраживачима који желе флексибилност | Намењено општим корисницима који траже могућности разговора |
Случајеви употребе | Ефикасније за генерисање кода и брзе задатке | Идеално за генерисање текста, одговарање на упите и вођење дијалога |
Критичка перспектива о „поремећају Нвидије“
Тренутно, поред компаније Huawei, неколико домаћих произвођача чипова, попут Moore Threads, Muxi, Biran Technology и Tianxu Zhixin, такође се прилагођавају двама моделима компаније DeepSeek. Један произвођач чипова је за AI Technology Review рекао: „Структура DeepSeek-а показује иновативност, али он остаје LLM. Наша адаптација на DeepSeek је првенствено фокусирана на апликације за расуђивање, што техничку имплементацију чини прилично једноставном и брзом.“ Међутим, MoE приступ захтева веће захтеве у погледу складиштења и дистрибуције, заједно са обезбеђивањем компатибилности приликом примене са домаћим чиповима, што представља бројне инжењерске изазове који захтевају решавање током адаптације. „Тренутно, домаћа рачунарска снага не одговара Nvidia-и у употребљивости и стабилности, захтевајући оригинално учешће фабрике за подешавање софтверског окружења, решавање проблема и оптимизацију основних перформанси“, рекао је један стручњак из индустрије на основу практичног искуства. Истовремено, „Због велике скале параметара DeepSeek R1, домаћа рачунарска снага захтева више чворова за паралелизацију. Поред тога, домаће хардверске спецификације су и даље донекле иза; на пример, Huawei 910B тренутно не може да подржи FP8 инференцију коју је увео DeepSeek.“ Једна од најважнијих карактеристика DeepSeek V3 модела је увођење FP8 оквира за мешовиту прецизну обуку, који је ефикасно валидиран на изузетно великом моделу, што представља значајно достигнуће. Раније су велики играчи попут Microsoft-а и Nvidia-е предлагали сродне радове, али у индустрији и даље постоје сумње у вези са изводљивошћу. Сматра се да је, у поређењу са INT8, главна предност FP8 то што квантизација након обуке може постићи готово без губитака прецизност, уз значајно побољшање брзине закључивања. У поређењу са FP16, FP8 може остварити до двоструко убрзање на Nvidia H20 и преко 1,5 пута убрзање на H100. Приметно је да, како дискусије око тренда домаће рачунарске снаге плус домаћи модели добијају на замаху, спекулације о томе да ли би Nvidia могла бити поремећена и да ли би се CUDA ров могао заобићи, постају све распрострањеније. Једна неоспорна чињеница је да је DeepSeek заиста изазвао значајан пад тржишне вредности Nvidia-е, али ова промена покреће питања у вези са интегритетом Nvidia-ине врхунске рачунарске снаге. Раније прихваћени наративи о акумулацији рачунарских ресурса вођених капиталом се доводе у питање, али је и даље тешко да Nvidia буде у потпуности замењена у сценаријима обуке. Анализа DeepSeek-ове дубоке употребе CUDA-е показује да флексибилност - као што је коришћење SM-а за комуникацију или директно манипулисање мрежним картицама - није изводљива за редовне GPU-ове. Ставови индустрије наглашавају да Nvidia-ин ров обухвата цео CUDA екосистем, а не само сам CUDA, а PTX (Parallel Thread Execution) инструкције које DeepSeek користи су и даље део CUDA екосистема. „Краткорочно гледано, Nvidia-ина рачунарска снага се не може заобићи - то је посебно јасно у обуци; међутим, примена домаћих картица за расуђивање биће релативно лакша, тако да ће напредак вероватно бити бржи. Адаптација домаћих картица се првенствено фокусира на закључивање; нико још није успео да обучи модел DeepSeek-ових перформанси на домаћим картицама у великим размерама“, приметио је један индустријски аналитичар за AI Technology Review. Генерално, са становишта закључивања, околности су охрабрујуће за домаће велике моделе чипова. Могућности за домаће произвођаче чипова у области инференције су очигледније због претерано високих захтева за обуку, што отежава улазак на тржиште. Аналитичари тврде да је довољно само коришћење домаћих картица за инференцију; ако је потребно, набавка додатне машине је изводљива, док модели обуке представљају јединствене изазове – управљање повећаним бројем машина може постати оптерећујуће, а веће стопе грешака могу негативно утицати на исходе обуке. Обука такође има специфичне захтеве за размеру кластера, док захтеви за кластере за инференцију нису толико строги, што олакшава захтеве за ГПУ. Тренутно, перформансе једне Нвидијине Х20 картице не превазилазе оне од Хуавеја или Кембријана; њена снага лежи у груписању. На основу укупног утицаја на тржиште рачунарске снаге, оснивач компаније Лучен Технолоџи, Ју Јанг, приметио је у интервјуу за АИ Технолоџи Ривју: „ДипСик може привремено да поткопа успостављање и изнајмљивање ултра великих рачунарских кластера за обуку. На дужи рок, значајним смањењем трошкова повезаних са обуком великих модела, резоновањем и апликацијама, тржишна потражња ће вероватно порасти. Накнадне итерације вештачке интелигенције засноване на овоме ће стога континуирано покретати одрживу потражњу на тржишту рачунарске снаге.“ Поред тога, „DeepSeek-ова повећана потражња за услугама резоновања и финог подешавања је компатибилнија са домаћим рачунарским пејзажом, где су локални капацитети релативно слаби, што помаже у смањењу расипњавања од неактивних ресурса након успостављања кластера; ово ствара одрживе могућности за произвођаче на различитим нивоима домаћег рачунарског екосистема.“ Luchen Technology је сарађивао са Huawei Cloud-ом како би покренуо DeepSeek R1 серије API-ја за резоновање и услуге cloud снимања засноване на домаћој рачунарској снази. Ју Јанг је изразио оптимизам у погледу будућности: „DeepSeek улива поверење у домаћа решења, подстичући већи ентузијазам и улагања у домаће рачунарске капацитете у будућности.“

Закључак
Да ли је DeepSeek „бољи“ од ChatGPT-а зависи од специфичних потреба и циљева корисника. За задатке који захтевају флексибилност, ниску цену и прилагођавање, DeepSeek може бити супериорнији. За креативно писање, општа истраживања и кориснички прилагођене интерфејсе за разговор, ChatGPT може преузети водећу улогу. Сваки алат служи различитим сврхама, тако да ће избор у великој мери зависити од контекста у којем се користи.
Контролни каблови
Структурирани кабловски систем
Мрежа и подаци, оптички кабл, пач корд, модули, предња плоча
16-18. април 2024. Блискоисточна енергетика у Дубаију
16-18. април 2024. Секурика у Москви
9. мај 2024. ДОГАЂАЈ ПРЕДСВОДЊЕ НОВИХ ПРОИЗВОДА И ТЕХНОЛОГИЈА у Шангају
22.-25. октобар 2024. БЕЗБЕДНОСТ КИНЕ у Пекингу
19-20. новембар 2024. CONNECTED WORLD KSA
Време објаве: 10. фебруар 2025.