污污污网站在线免费观看|色吊丝中文字幕资源在线|精品无码国产一区二区三区AVw|国产无码二区三区

<center id="emyim"><dd id="emyim"></dd></center>
  • <strike id="emyim"><dl id="emyim"></dl></strike>
  • <center id="emyim"><small id="emyim"></small></center>
    
    <tbody id="emyim"></tbody>
  • <center id="emyim"><dd id="emyim"></dd></center>
    每日經(jīng)濟(jì)新聞
    要聞

    每經(jīng)網(wǎng)首頁(yè) > 要聞 > 正文

    OpenAI,重大發(fā)布!奧特曼發(fā)聲

    每日經(jīng)濟(jì)新聞 2025-04-15 07:00:38

    北京時(shí)間4月15日凌晨1點(diǎn),OpenAI發(fā)布最新模型GPT-4.1,及GPT 4.1-Mini和GPT 4.1-Nano兩款模型。GPT-4.1在多模態(tài)處理、代碼能力等方面實(shí)現(xiàn)大幅度提升,支持100萬(wàn)token上下文,對(duì)金融、寫(xiě)作、教育等領(lǐng)域幫助巨大。GPT-4.1價(jià)格更具競(jìng)爭(zhēng)力,Nano每百萬(wàn)token成本僅12美分。此外,GPT-4將于本月底從ChatGPT中“退役”。

    每經(jīng)編輯 畢陸名

    北京時(shí)間4月15日凌晨1點(diǎn),OpenAI進(jìn)行了技術(shù)直播,發(fā)布了最新模型——GPT-4.1。

    除了GPT-4.1之外,還有GPT-4.1 Mini和GPT-4.1 Nano兩款模型,在多模態(tài)處理、代碼能力、指令遵循、成本方面實(shí)現(xiàn)大幅度提升。特別是支持100萬(wàn)token上下文,這對(duì)于金融分析、小說(shuō)寫(xiě)作、教育等領(lǐng)域幫助巨大。

    圖片來(lái)源:OpenAI官網(wǎng)截圖

    當(dāng)日,OpenAI首席執(zhí)行官奧特曼表示,GPT-4.1(以及-Mini和-Nano)現(xiàn)已在API中可用。

    由于GPT-4.1的發(fā)布,OpenAI宣布將會(huì)淘汰剛發(fā)布不久的GPT-4.5,其能力可見(jiàn)一斑。

    目前,如果想體驗(yàn)GPT-4.1而無(wú)法通過(guò)API身份驗(yàn)證的小伙伴,微軟已經(jīng)在Azure OpenAI上線了該模型,可以使用了。

    GPT-4.1最大亮點(diǎn)之一就是支持100萬(wàn)tokens上下文,這也是OpenAI首次發(fā)布長(zhǎng)窗口模型。

    與前代模型相比,GPT-4.1、GPT-4.1 Mini和GPT-4.1 Nano能夠處理多達(dá)100萬(wàn)tokens的上下文,是GPT-4o的8倍。

    OpenAI在Long Context Evals上對(duì)長(zhǎng)文本進(jìn)行了測(cè)試,測(cè)試結(jié)果顯示,GPT-4.1系列的三個(gè)模型均能夠在語(yǔ)料庫(kù)的任何深度找到目標(biāo)文本,無(wú)論是開(kāi)頭、中間還是結(jié)尾,甚至在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中,模型依然能夠準(zhǔn)確地定位目標(biāo)文本。

    OpenAI還在Multi-Round Coreference進(jìn)行了測(cè)試,通過(guò)創(chuàng)建合成對(duì)話來(lái)測(cè)試模型在長(zhǎng)上下文中的理解和推理能力。在這些對(duì)話中,用戶(hù)和助手交替進(jìn)行對(duì)話,用戶(hù)可能會(huì)要求模型生成一首關(guān)于某個(gè)主題的詩(shī),接著要求生成另一首關(guān)于不同主題的詩(shī),然后可能要求生成一個(gè)關(guān)于第三個(gè)主題的短故事。模型需要在這些復(fù)雜的對(duì)話中找到特定的內(nèi)容,例如“第二篇關(guān)于某個(gè)主題的短故事”。

    測(cè)試結(jié)果顯示,GPT-4.1在處理長(zhǎng)達(dá)128K tokens的數(shù)據(jù)時(shí)顯著優(yōu)于GPT-4o,并且在長(zhǎng)達(dá)100萬(wàn)tokens的上下文中依然能夠保持較高的性能。在編碼能力測(cè)試中,SWEBench評(píng)估將模型置于Python代碼庫(kù)環(huán)境,讓其探索代碼庫(kù)、編寫(xiě)代碼和測(cè)試用例。結(jié)果顯示,GPT-4.1的準(zhǔn)確率達(dá)到55%,而GPT-4o僅為33%。

    該測(cè)試中,模型會(huì)收到一個(gè)代碼庫(kù)和問(wèn)題描述,然后其需要生成補(bǔ)丁來(lái)解決該問(wèn)題,模型的表現(xiàn)會(huì)高度依賴(lài)于所使用的提示和工具。

    在多語(yǔ)言編碼能力測(cè)試方面,Ader polyglot基準(zhǔn)測(cè)試涵蓋多種編程語(yǔ)言和不同格式要求。GPT-4.1在差異性能上較GPT-4o提升一倍,在處理多語(yǔ)言編程任務(wù)、代碼優(yōu)化和版本管理時(shí)更高效。

    在指令遵循能力測(cè)試中,OpenAI構(gòu)建內(nèi)部評(píng)估體系,模擬API開(kāi)發(fā)者使用場(chǎng)景,測(cè)試模型對(duì)復(fù)雜指令的遵循能力。每個(gè)樣本包含分屬不同類(lèi)別的復(fù)雜指令,并分難度等級(jí)。在困難子集評(píng)估中,GPT-4.1遠(yuǎn)超GPT-4o。

    在多模態(tài)處理測(cè)試的視頻MME基準(zhǔn)測(cè)試中,GPT 4.1對(duì)30~60分鐘無(wú)字幕視頻進(jìn)行理解并回答多項(xiàng)選擇題,取得72%的成績(jī),達(dá)到當(dāng)前最佳水平,在視頻內(nèi)容理解上實(shí)現(xiàn)重大突破。

    價(jià)格方面,GPT-4.1系列在性能提升的同時(shí),價(jià)格更具競(jìng)爭(zhēng)力。GPT-4.1相比GPT-4o價(jià)格降低26%,而GPT-4.1 Nano作為最小、最快且最便宜的模型,每百萬(wàn)token的成本僅為12美分。

    當(dāng)?shù)貢r(shí)間4月14日,OpenAI首席執(zhí)行官山姆·奧特曼在社交平臺(tái)透露,接下來(lái)的一周將發(fā)布很多新產(chǎn)品。本月初,他曾表示將在數(shù)周內(nèi)發(fā)布o(jì)3、o4-mini,未來(lái)幾月內(nèi)發(fā)布GPT-5。

    根據(jù)OpenAI在其官網(wǎng)上發(fā)布的公告,OpenAI兩年前推出的人工智能模型GPT-4將于本月底從聊天機(jī)器人ChatGPT中“退役”。OpenAI表示,從4月30日起,GPT-4將被GPT-4o“完全取代”,后者是ChatGPT目前的默認(rèn)模型。不過(guò),GPT-4仍可通過(guò)OpenAI的API使用。

    OpenAI寫(xiě)道,“在正面評(píng)估中,GPT-4o在寫(xiě)作、編碼、STEM等方面一直超過(guò)GPT-4。此外,最近的升級(jí)進(jìn)一步改進(jìn)了GPT–4o的指令遵循、問(wèn)題解決和會(huì)話流程,使其成為GPT-4的自然繼承者。”

    GPT-4于2023年3月推出,被用于ChatGPT和微軟的Copilot聊天機(jī)器人。GPT-4模型具有多個(gè)版本,還擁有多模態(tài)功能,這允許它們同時(shí)理解圖像和文本。OpenAI首席執(zhí)行官奧爾特曼當(dāng)時(shí)還表示,GPT-4的規(guī)模龐大,培訓(xùn)成本超過(guò)1億美元。

    后來(lái)在2023年11月,OpenAI推出GPT-4 Turbo模型,這是一種更快且更便宜的模型。

    去年5月,GPT-4o被推出,其在多模態(tài)功能方面更加強(qiáng)大,據(jù)時(shí)任OpenAI首席技術(shù)官穆拉蒂表示,GPT-4o中的“o”代表了“全能”。

    每日經(jīng)濟(jì)新聞綜合OpenAI官網(wǎng)

    免責(zé)聲明:本文內(nèi)容與數(shù)據(jù)僅供參考,不構(gòu)成投資建議,使用前請(qǐng)核實(shí)。據(jù)此操作,風(fēng)險(xiǎn)自擔(dān)。

    封面圖片來(lái)源:每日經(jīng)濟(jì)新聞

    如需轉(zhuǎn)載請(qǐng)與《每日經(jīng)濟(jì)新聞》報(bào)社聯(lián)系。
    未經(jīng)《每日經(jīng)濟(jì)新聞》報(bào)社授權(quán),嚴(yán)禁轉(zhuǎn)載或鏡像,違者必究。

    讀者熱線:4008890008

    特別提醒:如果我們使用了您的圖片,請(qǐng)作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

    GPT 模型 Ai 大發(fā)

    歡迎關(guān)注每日經(jīng)濟(jì)新聞APP

    每經(jīng)經(jīng)濟(jì)新聞官方APP

    0

    0