国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Facebook全新開源深度學(xué)習(xí)框架Pythia,即插即用快速構(gòu)建AI模型

DPVg_AI_era ? 來源:lq ? 2019-05-25 09:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Facebook的人工智能研究部門近期推出Pythia,一個(gè)模塊化的即插即用框架。目標(biāo)是使數(shù)據(jù)科學(xué)家能夠快速構(gòu)建、復(fù)制和基準(zhǔn)人工智能模型,將VQA v2.0數(shù)據(jù)集模型的性能從65.67%提高到70.22%,已在Github上開源。

Facebook最近在開發(fā)者社區(qū)拋出了一系列工具。繼一月份image processing library Spectrum、去年底的自然語言處理建模框架PyText和11月的人工智能增強(qiáng)學(xué)習(xí)平臺(tái)Horizon的開源后,F(xiàn)acebook的人工智能研究部門又推出了Pythia,一個(gè)模塊化的即插即用框架。

Pythia的目標(biāo)是使數(shù)據(jù)科學(xué)家能夠快速構(gòu)建、復(fù)制和基準(zhǔn)人工智能模型,已在Github上開源。

而Pythia(中文一般譯作皮媞亞)這個(gè)名字的來歷也很有意思。古希臘神話中,Pythia是阿波羅神的女祭司,服務(wù)于帕納塞斯山上的德爾斐(Delphi)神廟,以傳達(dá)阿波羅神的神諭而聞名,被認(rèn)為能預(yù)知未來。

即插即用Pythia:讓數(shù)據(jù)科學(xué)家快速構(gòu)建、復(fù)制和基準(zhǔn)AI模型

Pythia是什么?

Pythia是一個(gè)深度學(xué)習(xí)框架,支持視覺和語言領(lǐng)域的多任務(wù)處理。基于PyTorch 框架,模塊化即插即用的設(shè)計(jì)使研究人員能夠快速構(gòu)建、復(fù)制和基準(zhǔn)化人工智能模型。

Pythia是為視覺和語言任務(wù)而設(shè)計(jì)的,例如回答與視覺數(shù)據(jù)相關(guān)的問題和自動(dòng)生成圖像注釋。

Pythia能做什么?

Pythia加入了最近的人工智能競賽(2018年VQA挑戰(zhàn)賽和2018年Vizwiz挑戰(zhàn)賽)中獲獎(jiǎng)作品的元素。功能包括用參考實(shí)現(xiàn)(reference implementations)來顯示以前最先進(jìn)的模型如何實(shí)現(xiàn)相關(guān)的基準(zhǔn)結(jié)果,并快速衡量新模型的性能。

除了多任務(wù)處理之外,Pythia還支持分布式培訓(xùn)和各種數(shù)據(jù)集,以及自定義損失、度量、調(diào)度(scheduling)和優(yōu)化器。

Pythia的特性

Model Zoo:藝術(shù)級(jí)的視覺和語言模型的參考實(shí)現(xiàn),包括LoRRA(VQA和TextVQA上的SoTA)、Pythia模型(VQA 2018 挑戰(zhàn)賽獲勝者)和Ban。

多任務(wù)處理:支持多任務(wù)處理,允許對(duì)多個(gè)數(shù)據(jù)集進(jìn)行訓(xùn)練。

數(shù)據(jù)集:包括對(duì)各種內(nèi)置數(shù)據(jù)集的支持,包括VQA, VizWiz, TextVQA and和VisualDialog。

模塊:為視覺和語言領(lǐng)域中的許多常用層提供實(shí)現(xiàn)

分布式:支持基于數(shù)據(jù)并行和分布式數(shù)據(jù)并行的分布式訓(xùn)練。

Unopinionated:關(guān)于基于它的數(shù)據(jù)集和模型實(shí)現(xiàn)是Unopinionated。

定制:定制損失、度量、調(diào)度、優(yōu)化器、Tensorboard;適合用戶所有的定制需求。

用戶可以使用Pythia為自己下一個(gè)視覺和語言多模式研究項(xiàng)目進(jìn)行引導(dǎo)。Pythia還可以作為圍繞視覺和語言數(shù)據(jù)集的挑戰(zhàn)的起始代碼庫(參見TextVQA挑戰(zhàn)賽和VQA挑戰(zhàn)賽)。

Pythia最厲害的地方是什么?

Pythia簡化了進(jìn)入視覺和語言發(fā)展子領(lǐng)域的過程,使研究人員能夠?qū)W⒂诟斓脑椭谱骱蛯?shí)驗(yàn)。Facebook的目標(biāo)是通過增加這些模型和結(jié)果的再現(xiàn)性來加速進(jìn)展。這將使社區(qū)更容易建立成功系統(tǒng)的基礎(chǔ)和基準(zhǔn)。

開發(fā)者還希望通過Pythia消除障礙,能夠使研究人員更快地為人們和智能機(jī)器開發(fā)新的交流方式。這項(xiàng)工作還應(yīng)該幫助研究人員開發(fā)自適應(yīng)人工智能,將多種理解合成一種更基于上下文的多模式理解。除了這個(gè)開源版本,F(xiàn)acebook計(jì)劃繼續(xù)添加工具、任務(wù)、數(shù)據(jù)集和引用模型。

在上面提到的VQA 2018比賽中,Pythia v0.1出發(fā)點(diǎn)是自下而上、自上而下模型的模塊化重新實(shí)現(xiàn),最終力壓群雄而勝出。

Pythia v0.1證明,通過對(duì)模型體系結(jié)構(gòu)和學(xué)習(xí)速率計(jì)劃進(jìn)行細(xì)微但重要的更改、微調(diào)圖像功能和添加數(shù)據(jù)擴(kuò)充,可以顯著提高VQA v2.0數(shù)據(jù)集自上而下模型的性能,從65.67%提高到70.22%。

此外,通過使用不同特征和不同數(shù)據(jù)集訓(xùn)練的不同模型集合,Pythia v0.1能夠顯著提高1.31%的“標(biāo)準(zhǔn)”集合方式(即具有不同隨機(jī)種子的相同模型)??偟膩碚f,Pythia v0.1在VQA v2.0數(shù)據(jù)集的測試標(biāo)準(zhǔn)分割上達(dá)到了72.27%。

術(shù)語和概念

Pythia經(jīng)過精心設(shè)計(jì),從一開始就是一個(gè)多任務(wù)框架。這意味著使用Pythia,可以一起訓(xùn)練多個(gè)任務(wù)和數(shù)據(jù)集。

但是,Pythia在其模塊中抽象了許多概念,在Pythia之上進(jìn)行開發(fā),有必要理解Pythia代碼庫中使用的概念和術(shù)語。一旦開發(fā)人員理解了這些簡單的概念,就很容易在Pythia之上進(jìn)行開發(fā)。其中主要概念和術(shù)語如下:

任務(wù)和數(shù)據(jù)集

在Pythia中,數(shù)據(jù)集被劃分為一組任務(wù)。因此,任務(wù)對(duì)應(yīng)屬于它的數(shù)據(jù)集的集合。例如,VQA 2.0,VizWiz和TextVQA都屬于VQA任務(wù)。 已為每個(gè)任務(wù)和數(shù)據(jù)集分配了一個(gè)唯一key,用于在命令行參數(shù)中引用。

下表顯示了任務(wù)及其數(shù)據(jù)集:

下表顯示了上表的反轉(zhuǎn),數(shù)據(jù)集及其任務(wù)和key:

模型

已經(jīng)包括了最先進(jìn)模型的參考實(shí)施,作為研究論文復(fù)制和新研究起點(diǎn)的基礎(chǔ)。Pythia曾被用于以下論文:

走向可以閱讀的VQA模型(LoRRA模型)

VQA 2018挑戰(zhàn)賽冠軍

VizWiz 2018挑戰(zhàn)賽冠軍

與任務(wù)和數(shù)據(jù)集類似,每個(gè)模型都使用唯一key進(jìn)行注冊(cè),以便在配置和命令行參數(shù)中輕松引用。下表顯示了可以運(yùn)行的每個(gè)模型的關(guān)鍵名稱和數(shù)據(jù)集。

注冊(cè)表

受到Redux全球商店的啟發(fā),Pythia生態(tài)系統(tǒng)所需的有用信息已在注冊(cè)表中注冊(cè)??梢詫⒆?cè)表視為框架的多個(gè)部分所需的信息的通用存儲(chǔ),并在需要該信息的任何地方起作用信息源。

注冊(cè)表還基于如上所述的唯一密鑰來注冊(cè)模型、任務(wù)、數(shù)據(jù)集等。 注冊(cè)表的函數(shù)可以用作需要注冊(cè)的類的裝飾器(例如模型等)

導(dǎo)入注冊(cè)表對(duì)象導(dǎo)入:

from pythia.common.registry import registry

配置

根據(jù)研究需要,Pythia中的大多數(shù)參數(shù)/設(shè)置都是可配置的。 Pythia特定的默認(rèn)值(training_parameters)存在于:

pythia/common/defaults/configs/base.yml

其中詳細(xì)的注釋描述了每個(gè)參數(shù)的用法。為了便于使用和模塊化,每個(gè)數(shù)據(jù)集的配置分別保存在:

pythia/common/defaults/configs/tasks/[task]/[dataset].yml

可以從Tasks中的表中獲取數(shù)據(jù)集的[task]值和數(shù)據(jù)集部分。模型配置也是分開的,并且是用戶在創(chuàng)建自己的模型時(shí)需要定義的部分。

由于每個(gè)數(shù)據(jù)集的單獨(dú)配置,這個(gè)概念可以擴(kuò)展到執(zhí)行多任務(wù)并在此包含多個(gè)數(shù)據(jù)集配置。

處理器

處理器的主要目的是使數(shù)據(jù)處理流程盡可能與不同數(shù)據(jù)集相似,并允許代碼重用。

處理器接受帶有與所需數(shù)據(jù)相對(duì)應(yīng)key的字典,并返回帶有處理數(shù)據(jù)的字典。這有助于通過修復(fù)所需的簽名來使處理器獨(dú)立于邏輯的其余部分。

處理器用于所有數(shù)據(jù)集以切換數(shù)據(jù)處理需求。在處理器文檔中了解有關(guān)處理器的更多信息。

SampleList

SampleList受到了maskrcnn-benchmark中BBoxList的啟發(fā),但更為通用。與Pythia集成的所有數(shù)據(jù)集都需要返回一個(gè)Sample,該Sample將被整理到SampleList中。

現(xiàn)在,SampleList帶有許多方便的功能,可以輕松地批量處理和訪問事物。對(duì)于例如樣本是帶有一些key的字典。在SampleList中,這些key的值將根據(jù)它是張量還是列表而被巧妙地分組,并分配回該字典。

因此,終端用戶可以很好地將這些key組合在一起,并可以在他們的模型中使用它們。與Pythia集成的模型接收SampleList作為參數(shù),這再次使trainer對(duì)模型和數(shù)據(jù)集不再有任何影響。在其文檔中了解有關(guān)Sample和SampleList的更多信息。

預(yù)訓(xùn)練模型

在Pythia中使用預(yù)訓(xùn)練模型進(jìn)行推理很容易。從下表中選取一個(gè)預(yù)訓(xùn)練模型,并按照步驟進(jìn)行推理或生成預(yù)測讓EvalAI評(píng)估。(注意,這部分內(nèi)容需要先安裝教程中介紹的數(shù)據(jù),教程鏈接在文末)

現(xiàn)在,假設(shè)你到預(yù)培訓(xùn)模型model是link(從table中選擇>右鍵單擊>復(fù)制鏈接地址),相應(yīng)的配置應(yīng)該位于configs/[task]/[dataset]/[model].yml。例如,vqa2 train_and_val的配置文件應(yīng)該是configs/vqa/vqa2/pythia_train_and_val.yml?,F(xiàn)在要運(yùn)行EvalAI的推斷,請(qǐng)運(yùn)行以下命令:

如果要在val上進(jìn)行培訓(xùn)或評(píng)估,請(qǐng)相應(yīng)地將run_type改為train或val。你還可以使用多個(gè)運(yùn)行類型,例如進(jìn)行訓(xùn)練、對(duì)val進(jìn)行推斷、還可以將--run_type設(shè)置為train+val+inference進(jìn)行推斷。

如果刪除--evalai_inference論證,Pythia 將執(zhí)行推斷并直接在數(shù)據(jù)集上提供結(jié)果。請(qǐng)注意,對(duì)于測試集,這是不能用的,因?yàn)槲覀儧]有它們的答案/目標(biāo)。因此,這對(duì)于在本地執(zhí)行 val集的推理很有用。

如果刪除--evalai_inference論證,Pythia 將執(zhí)行推斷并直接在數(shù)據(jù)集上提供結(jié)果。請(qǐng)注意,對(duì)于測試集,這是不能用的,因?yàn)槲覀儧]有它們的答案/目標(biāo)。因此,這對(duì)于在本地執(zhí)行 val集的推理很有用。

下表顯示了各種預(yù)培訓(xùn)模型的評(píng)估指標(biāo):

Demo演示

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Facebook
    +關(guān)注

    關(guān)注

    3

    文章

    1432

    瀏覽量

    56768
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5561

    瀏覽量

    122798
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    809

    瀏覽量

    13963

原文標(biāo)題:Facebook全新開源深度學(xué)習(xí)框架Pythia,即插即用快速構(gòu)建AI模型

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    模態(tài)的技術(shù)特性,DeepSeek正加速推動(dòng)AI在金融、政務(wù)、科研及網(wǎng)絡(luò)智能化等關(guān)鍵領(lǐng)域的深度應(yīng)用。 信而泰:AI推理引擎賦能網(wǎng)絡(luò)智能診斷新范式信而泰深度整合DeepSeek-R1大
    發(fā)表于 07-16 15:29

    任正非說 AI已經(jīng)確定是第四次工業(yè)革命 那么如何從容地加入進(jìn)來呢?

    GitHub等平臺(tái)上尋找感興趣的AI開源項(xiàng)目。例如,可以參與一些小型的深度學(xué)習(xí)框架改進(jìn)項(xiàng)目,或者數(shù)據(jù)標(biāo)注工具的開發(fā)項(xiàng)目。通過參與這些項(xiàng)目,可
    發(fā)表于 07-08 17:44

    寧暢與與百度文心大模型展開深度技術(shù)合作

    近日,百度正式開源文心大模型4.5系列模型。作為文心開源合作伙伴,寧暢在模型開源首日即實(shí)現(xiàn)即刻部
    的頭像 發(fā)表于 07-07 16:26 ?213次閱讀

    最新人工智能硬件培訓(xùn)AI基礎(chǔ)入門學(xué)習(xí)課程參考2025版(離線AI語音視覺識(shí)別篇)

    視覺開發(fā)板開箱即用的離線AI能力,分類列出學(xué)習(xí)課程知識(shí)點(diǎn)和實(shí)操參考,希望能夠幫助大家快速掌握離線 AI 智能硬件的基礎(chǔ)知識(shí)與實(shí)戰(zhàn)技能,同時(shí)了
    發(fā)表于 07-04 11:14

    模型時(shí)代的深度學(xué)習(xí)框架

    量是約為 25.63M,在ImageNet1K數(shù)據(jù)集上,使用單張消費(fèi)類顯卡 RTX-4090只需大約35~40個(gè)小時(shí) ,即可完成ResNet50模型的預(yù)訓(xùn)練。在 大模型時(shí)代 ,由于大模型參數(shù)規(guī)模龐大,無法跟CNN時(shí)代的小
    的頭像 發(fā)表于 04-25 11:43 ?268次閱讀
    大<b class='flag-5'>模型</b>時(shí)代的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    科正將AI能力體系化并賦能終端生態(tài)。 大會(huì)上,聯(lián)發(fā)科定義了“智能體化用戶體驗(yàn)”的五大特征:主動(dòng)及時(shí)、知你懂你、互動(dòng)協(xié)作、學(xué)習(xí)進(jìn)化和專屬隱私信息守護(hù)。這五大特征需要跨越從芯片、模型、應(yīng)用、終端乃至整個(gè)
    發(fā)表于 04-13 19:52

    有獎(jiǎng)直播 | @4/8 輕松部署,強(qiáng)大擴(kuò)展邊緣運(yùn)算 AI 新世代

    MemryX推出全新MemryXMX3AI推理加速卡,采用PCIeGen3M.2M-Key接口,提供高達(dá)20TOPS的強(qiáng)大算力,為工業(yè)計(jì)算機(jī)帶來即插即用AI部署體驗(yàn)。結(jié)合Orange
    的頭像 發(fā)表于 03-27 16:31 ?663次閱讀
    有獎(jiǎng)直播 | @4/8 輕松部署,強(qiáng)大擴(kuò)展邊緣運(yùn)算 <b class='flag-5'>AI</b> 新世代

    AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》----- 學(xué)習(xí)如何開發(fā)視頻應(yīng)用

    再次感謝發(fā)燒友提供的閱讀體驗(yàn)活動(dòng)。本期跟隨《AI Agent 應(yīng)用與項(xiàng)目實(shí)戰(zhàn)》這本書學(xué)習(xí)如何構(gòu)建開發(fā)一個(gè)視頻應(yīng)用。AI Agent是一種智能應(yīng)用,能夠根據(jù)用戶需求和環(huán)境變化做出相應(yīng)響應(yīng)
    發(fā)表于 03-05 19:52

    開源AI模型庫是干嘛的

    開源AI模型庫是指那些公開源代碼、允許自由訪問和使用的AI模型集合。這些
    的頭像 發(fā)表于 12-14 10:33 ?791次閱讀

    FPGA加速深度學(xué)習(xí)模型的案例

    FPGA(現(xiàn)場可編程門陣列)加速深度學(xué)習(xí)模型是當(dāng)前硬件加速領(lǐng)域的一個(gè)熱門研究方向。以下是一些FPGA加速深度學(xué)習(xí)
    的頭像 發(fā)表于 10-25 09:22 ?1235次閱讀

    AI模型深度學(xué)習(xí)的關(guān)系

    AI模型深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度
    的頭像 發(fā)表于 10-23 15:25 ?2897次閱讀

    真格基金宣布捐贈(zèng)開源AI項(xiàng)目vLLM

    開源技術(shù)處于 AI 革命的中心。Llama 3、Mistral 等開源模型迅速追趕 GPT-4,TensorFlow、Pytorch 等開源
    的頭像 發(fā)表于 09-24 16:13 ?796次閱讀

    NVIDIA推出全新深度學(xué)習(xí)框架fVDB

    在 SIGGRAPH 上推出的全新深度學(xué)習(xí)框架可用于打造自動(dòng)駕駛汽車、氣候科學(xué)和智慧城市的 AI 就緒型虛擬表示。
    的頭像 發(fā)表于 08-01 14:31 ?1150次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta創(chuàng)始人馬克·扎克伯格親自站臺(tái),盛贊Llam
    的頭像 發(fā)表于 07-24 18:25 ?1785次閱讀

    如何利用AI進(jìn)行提升自我呢?

    支持,包括稀疏計(jì)算、圖學(xué)習(xí)和語音處理等。選擇適合你學(xué)習(xí)目標(biāo)和項(xiàng)目需求的框架。 預(yù)訓(xùn)練模型 :如文心ERNIE 3.0 Tiny v2,它是一個(gè)開源
    的頭像 發(fā)表于 07-19 10:46 ?1149次閱讀