大模型

加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點(diǎn)資訊討論

局部模型 為了仿照實(shí)體而去建造的大型道具模型,或局部道具模型。

局部模型 為了仿照實(shí)體而去建造的大型道具模型,或局部道具模型。收起

查看更多
  • 工業(yè)大模型的這三點(diǎn)變化,正悄然改變制造業(yè)
    屏幕上,一行行圖文快速刷新,在一問(wèn)一答間,復(fù)雜的電氣行業(yè)難題便迎刃而解;車間里,只需在電腦上稍作設(shè)置,工業(yè)機(jī)器人便自動(dòng)完成復(fù)雜繁重的工作;辦公室內(nèi),只需導(dǎo)入?yún)?shù)文件,準(zhǔn)確、合規(guī)、定制化的PCB圖紙便立等可取……當(dāng)前,人工智能,尤其是大模型的應(yīng)用已經(jīng)深入工業(yè)制造的每一個(gè)環(huán)節(jié)中。
    工業(yè)大模型的這三點(diǎn)變化,正悄然改變制造業(yè)
  • 大模型“內(nèi)卷”,打不過(guò)就加入——開發(fā)者從哪做起?
    與其去參與大模型的“內(nèi)卷”,不如去做大模型應(yīng)用開發(fā),因?yàn)榇竽P鸵话阋蛻?yīng)用結(jié)合才能在各種場(chǎng)景落地,所以加入大模型應(yīng)用開發(fā)賽道,可能是個(gè)人提升自我的有效途徑。
  • 與GPU共生進(jìn)化,Supermicro液冷革命進(jìn)入2.0時(shí)代
    當(dāng)NVIDIA B200 GPU將單芯片算力推至20PetaFLOPS時(shí),數(shù)據(jù)中心的液冷革命也在如火如荼的進(jìn)行中。Supermicro作為全球AI服務(wù)器龍頭,其液冷方案迭代已與GPU性能形成了共生進(jìn)化。這也揭示了數(shù)據(jù)中心未來(lái)發(fā)展的方向——AI算力革命的上半場(chǎng)拼芯片性能,下半場(chǎng)則更注重能源效率。
    1555
    05/26 12:35
  • 她如何把“系統(tǒng)2”帶給了大模型 |對(duì)話微軟亞洲研究院張麗
    2023年,業(yè)界還在卷Scaling Law,不斷突破參數(shù)規(guī)模和數(shù)據(jù)規(guī)模時(shí),微軟亞洲研究院張麗團(tuán)隊(duì)就選擇了另一條路徑。早在OpenAI o1發(fā)布前,張麗團(tuán)隊(duì)就開始探索大模型深度推理能力。System2這個(gè)原屬認(rèn)知科學(xué)的詞匯最早由她及團(tuán)隊(duì)引入大模型領(lǐng)域。最近,她們通過(guò)蒙特卡洛搜索算法讓7B模型實(shí)現(xiàn)了o1級(jí)別的數(shù)學(xué)推理能力。
    338
    05/26 11:15
    她如何把“系統(tǒng)2”帶給了大模型 |對(duì)話微軟亞洲研究院張麗
  • Claude 4空降!AI編程真神登場(chǎng),連續(xù)7小時(shí)自主編程,寫代碼效率拉滿
    Claude 4深夜發(fā)布,編程助手同步開放。5月23日?qǐng)?bào)道,今天凌晨,美國(guó)大模型獨(dú)角獸Anthropic在其首屆開發(fā)者大會(huì)上正式發(fā)布了下一代Claude模型:Claude Opus 4和Claude Sonnet 4,這也是Claude自2024年6月以來(lái)的首次大版本號(hào)更新。Anthropic將Claude Opus 4稱之為“世界上最好的編程模型”,能在復(fù)雜、長(zhǎng)時(shí)間運(yùn)行的任務(wù)和智能體工作流中表現(xiàn)出穩(wěn)定的性能。Claude Sonnet 4是Claude Sonnet 3.7的重大升級(jí),以編程和推理能力為核心,同時(shí)能更精確地響應(yīng)用戶提示詞。
    Claude 4空降!AI編程真神登場(chǎng),連續(xù)7小時(shí)自主編程,寫代碼效率拉滿
  • 小芯片上的大模型
    “給我生成一份審訊盜竊案件的筆錄提綱。”指令輸入筆記本電腦之后,DeepSeek 16B(160億參數(shù)版)在毫秒間生成了一份包含基本信息、案件概述、權(quán)利告知、事實(shí)調(diào)查、其他重點(diǎn)事項(xiàng)、筆錄確認(rèn)、注意事項(xiàng)等一級(jí)標(biāo)題,且每個(gè)一級(jí)標(biāo)題都包含3-5個(gè)二級(jí)標(biāo)題的筆錄提綱。這是記者在第12屆中國(guó)國(guó)際警用裝備博覽會(huì)的中星微展臺(tái)看到的一幕。
    小芯片上的大模型
  • 據(jù)說(shuō)DeepSeek的數(shù)據(jù)比別家的好? 為什么說(shuō)數(shù)據(jù)質(zhì)量是大模型的關(guān)鍵變量?
    為什么有些大模型效果更自然、理解更準(zhǔn)、生成更穩(wěn)?參數(shù)量或架構(gòu)當(dāng)然重要,但在頂尖選手中,真正拉開差距的,往往是“看不見(jiàn)”的東西——比如數(shù)據(jù)質(zhì)量。
    據(jù)說(shuō)DeepSeek的數(shù)據(jù)比別家的好? 為什么說(shuō)數(shù)據(jù)質(zhì)量是大模型的關(guān)鍵變量?
  • 【一文看懂】什么是RAG:讓大模型不再死記硬背,而是學(xué)會(huì)“查了資料再回答”
    隨著大語(yǔ)言模型(LLM)在各個(gè)行業(yè)的廣泛應(yīng)用,我們不斷面對(duì)一個(gè)挑戰(zhàn):如何確保語(yǔ)言模型的回答不僅僅依賴于它的訓(xùn)練數(shù)據(jù),還能靈活地訪問(wèn)外部的、最新的知識(shí)庫(kù)。檢索增強(qiáng)生成(Retrieval-Augmented Generation,簡(jiǎn)稱RAG)正是為了解決這個(gè)問(wèn)題而應(yīng)運(yùn)而生的技術(shù)架構(gòu)。本文將詳細(xì)介紹RAG的核心定義、技術(shù)框架、應(yīng)用場(chǎng)景、與相似技術(shù)的區(qū)別,以及它如何為AI系統(tǒng)帶來(lái)更高效、更智能的答案生成能力。
    1228
    05/08 15:50
    【一文看懂】什么是RAG:讓大模型不再死記硬背,而是學(xué)會(huì)“查了資料再回答”
  • Bye,英偉達(dá)!華為NPU,跑出了準(zhǔn)萬(wàn)億參數(shù)大模型
    現(xiàn)在,跑準(zhǔn)萬(wàn)億參數(shù)的大模型,可以徹底跟英偉達(dá)Say Goodbye了。完成此舉的,正是華為!要知道,在此之前,訓(xùn)練萬(wàn)億參數(shù)大模型這事,是有諸多“攔路虎”在身上的。例如負(fù)載均衡難、通信開銷大、訓(xùn)練效率低等等。
    1001
    05/08 15:00
    Bye,英偉達(dá)!華為NPU,跑出了準(zhǔn)萬(wàn)億參數(shù)大模型

正在努力加載...