国产chinesehdxxxx老太婆,办公室玩弄爆乳女秘hd,扒开腿狂躁女人爽出白浆 ,丁香婷婷激情俺也去俺来也,ww国产内射精品后入国产

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自然語言處理頂會(huì)NAACL近日公布了本屆會(huì)議的最佳論文,谷歌BERT論文獲得最佳長(zhǎng)論文

DPVg_AI_era ? 來源:lp ? 2019-04-19 11:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自然語言處理頂會(huì)NAACL近日公布了本屆會(huì)議的最佳論文,谷歌BERT論文獲得最佳長(zhǎng)論文,可謂名至實(shí)歸。

自然語言處理四大頂會(huì)之一NAACL2019將于6月2日-7日在美國(guó)明尼阿波利斯市舉行。

據(jù)官方統(tǒng)計(jì),NAACL2019共收到1955篇論文,接收論文424篇,錄取率僅為22.6%。其中長(zhǎng)論文投稿1198篇,短論文757篇。

今天,大會(huì)揭曉了本屆會(huì)議的最佳論文獎(jiǎng)項(xiàng),包括最佳專題論文、最佳可解釋NLP論文、最佳長(zhǎng)論文、最佳短論文和最佳資源論文。

其中,谷歌BERT論文獲得最佳長(zhǎng)論文獎(jiǎng)項(xiàng),可謂名至實(shí)歸。

最佳長(zhǎng)論文:谷歌BERT模型

最佳長(zhǎng)論文(Best Long Paper)

BERT:PretrainingofDeepBidirectionalTransformersforLanguageUnderstanding

JacobDevlin,Ming-WeiChang,KentonLeeandKristinaToutanova

https://arxiv.org/abs/1810.04805

谷歌AI團(tuán)隊(duì)在去年10月發(fā)布的BERT模型,在機(jī)器閱讀理解頂級(jí)水平測(cè)試SQuAD1.1中表現(xiàn)出驚人的成績(jī):全部?jī)蓚€(gè)衡量指標(biāo)上全面超越人類!并且還在11種不同NLP測(cè)試中創(chuàng)出最佳成績(jī),包括將GLUE基準(zhǔn)推至80.4%(絕對(duì)改進(jìn)7.6%),MultiNLI準(zhǔn)確度達(dá)到86.7%(絕對(duì)改進(jìn)率5.6%)等。

自BERT模型發(fā)布以來,許多基于BERT的改進(jìn)模型不斷在各種NLP任務(wù)刷新成績(jī)。毫不夸張地說,BERT模型開啟了NLP的新時(shí)代!

首先來看下谷歌AI團(tuán)隊(duì)做的這篇論文。

BERT的新語言表示模型,它代表Transformer的雙向編碼器表示。與最近的其他語言表示模型不同,BERT旨在通過聯(lián)合調(diào)節(jié)所有層中的上下文來預(yù)先訓(xùn)練深度雙向表示。因此,預(yù)訓(xùn)練的BERT表示可以通過一個(gè)額外的輸出層進(jìn)行微調(diào),適用于廣泛任務(wù)的最先進(jìn)模型的構(gòu)建,比如問答任務(wù)和語言推理,無需針對(duì)具體任務(wù)做大幅架構(gòu)修改。

論文作者認(rèn)為現(xiàn)有的技術(shù)嚴(yán)重制約了預(yù)訓(xùn)練表示的能力。其主要局限在于標(biāo)準(zhǔn)語言模型是單向的,這使得在模型的預(yù)訓(xùn)練中可以使用的架構(gòu)類型很有限。

在論文中,作者通過提出BERT:即Transformer的雙向編碼表示來改進(jìn)基于架構(gòu)微調(diào)的方法。

BERT提出一種新的預(yù)訓(xùn)練目標(biāo):遮蔽語言模型(maskedlanguagemodel,MLM),來克服上文提到的單向性局限。MLM的靈感來自Cloze任務(wù)(Taylor,1953)。MLM隨機(jī)遮蔽模型輸入中的一些token,目標(biāo)在于僅基于遮蔽詞的語境來預(yù)測(cè)其原始詞匯id。

與從左到右的語言模型預(yù)訓(xùn)練不同,MLM目標(biāo)允許表征融合左右兩側(cè)的語境,從而預(yù)訓(xùn)練一個(gè)深度雙向Transformer。除了遮蔽語言模型之外,本文作者還引入了一個(gè)“下一句預(yù)測(cè)”(nextsentenceprediction)任務(wù),可以和MLM共同預(yù)訓(xùn)練文本對(duì)的表示。

預(yù)訓(xùn)練模型架構(gòu)的差異。BERT使用雙向Transformer。OpenAIGPT使用從左到右的Transformer。ELMo使用經(jīng)過獨(dú)立訓(xùn)練的從左到右和從右到左LSTM的串聯(lián)來生成下游任務(wù)的特征。三個(gè)模型中,只有BERT表示在所有層中共同依賴于左右上下文。

參考閱讀:

NLP歷史突破!谷歌BERT模型狂破11項(xiàng)紀(jì)錄,全面超越人類!

最佳專題論文:減輕機(jī)器學(xué)習(xí)系統(tǒng)的偏見

最佳專題論文(Best Thematic Paper)

What’sinaName?ReducingBiasinBiosWithoutAccesstoProtectedAttributes

AlexeyRomanov,MariaDeArteaga,HannaWallach,JenniferChayes,ChristianBorgs,AlexandraChouldechova,SahinGeyik,KrishnaramKenthapadi,AnnaRumshiskyandAdamKalai

https://128.84.21.199/abs/1904.05233

越來越多的研究提出了減輕機(jī)器學(xué)習(xí)系統(tǒng)偏見的方法。這些方法通常依賴于對(duì)受保護(hù)屬性(如種族、性別或年齡)的可用性。

然而,這提出了兩個(gè)重要的挑戰(zhàn):

(1)受保護(hù)的屬性可能不可用,或者使用它們可能不合法;

(2)通常需要同時(shí)考慮多個(gè)受保護(hù)的屬性及其交集。

在減輕職業(yè)分類偏見的背景下,我們提出了一種方法,用于阻隔個(gè)人真實(shí)職業(yè)的預(yù)測(cè)概率與他們名字的單詞嵌入之間的相關(guān)性。

這種方法利用了詞嵌入中編碼的社會(huì)偏見,從而無需訪問受保護(hù)屬性。最重要的是,這種方法只要求在訓(xùn)練時(shí)訪問個(gè)人姓名,而不是在部署時(shí)。

我們使用了一個(gè)大規(guī)模的在線傳記數(shù)據(jù)集來評(píng)估我們提出的方法的兩種變體。我們發(fā)現(xiàn),這兩種變體同時(shí)減少了種族和性別偏見,而分類器的總體真實(shí)陽性率幾乎沒有降低。

最佳可解釋NLP論文:用量子物理的數(shù)學(xué)框架建模人類語言

最佳可解釋NLP論文 (Best Explainable NLP Paper)

CNM:AnInterpretableComplex-valuedNetworkforMatching

QiuchiLi,BenyouWangandMassimoMelucci

https://128.84.21.199/abs/1904.05298

本文試圖用量子物理的數(shù)學(xué)框架對(duì)人類語言進(jìn)行建模。

這個(gè)框架利用了量子物理中精心設(shè)計(jì)的數(shù)學(xué)公式,將不同的語言單元統(tǒng)一在一個(gè)復(fù)值向量空間中,例如,將單詞作為量子態(tài)的粒子,句子作為混合系統(tǒng)。我們構(gòu)建了一個(gè)復(fù)值網(wǎng)絡(luò)來實(shí)現(xiàn)該框架的語義匹配。

由于具有良好約束的復(fù)值組件,網(wǎng)絡(luò)允許對(duì)顯式物理意義進(jìn)行解釋。所提出的復(fù)值匹配網(wǎng)絡(luò)(complex-valuednetworkformatching,CNM)在兩個(gè)基準(zhǔn)問題回答(QA)數(shù)據(jù)集上具有與強(qiáng)大的CNN和RNN基線相當(dāng)?shù)男阅堋?/p>

最佳短論文:視覺模態(tài)對(duì)機(jī)器翻譯的作用

最佳短論文(Best Short Paper)

Probing the Need for Visual Context in Multimodal Machine Translation

OzanCaglayan,PranavaMadhyastha,LuciaSpeciaandLo?cBarrault

https://arxiv.org/abs/1903.08678

目前關(guān)于多模態(tài)機(jī)器翻譯(MMT)的研究表明,視覺模態(tài)要么是不必要的,要么僅僅是有幫助的。

我們假設(shè)這是在任務(wù)的惟一可用數(shù)據(jù)集(Multi30K)中使用的非常簡(jiǎn)單、簡(jiǎn)短和重復(fù)的語句的結(jié)果,其中源文本被呈現(xiàn)為上下文。

然而,在一般情況下,我們認(rèn)為可以將視覺信息和文本信息結(jié)合起來進(jìn)行實(shí)際的翻譯。

在本文中,我們通過系統(tǒng)的分析探討了視覺模態(tài)對(duì)最先進(jìn)的MMT模型的貢獻(xiàn)。我們的結(jié)果表明,在有限的文本上下文中,模型能夠利用視覺輸入生成更好的翻譯。這與當(dāng)前的觀點(diǎn)相矛盾,即要么是因?yàn)閳D像特征的質(zhì)量,要么是因?yàn)樗鼈兗傻侥P椭械姆绞?,MMT模型忽視了視覺模態(tài)。

最佳資源論文:常識(shí)性問答的新數(shù)據(jù)集

最佳資源論文(Best Resource Paper)

CommonsenseQA:AQuestionAnsweringChallengeTargetingCommonsenseKnowledge

AlonTalmor,JonathanHerzig,NicholasLourieandJonathanBerant

https://arxiv.org/abs/1811.00937

在回答一個(gè)問題時(shí),除了特定的上下文外,人們往往會(huì)利用他們豐富的世界知識(shí)。

最近的工作主要集中在回答一些有關(guān)文件或背景的問題,很少需要一般常識(shí)背景。

為了研究基于先驗(yàn)知識(shí)的問答任務(wù),我們提出了CommonsenseQA:一個(gè)具有挑戰(zhàn)性的用于常識(shí)性問答的新數(shù)據(jù)集。

為了獲取超出關(guān)聯(lián)之外的常識(shí),我們從ConceptNet(Speeretal.,2017)中提取了與單個(gè)源概念具有相同語義關(guān)系的多個(gè)目標(biāo)概念。參與者被要求撰寫多項(xiàng)選擇題,其中要提到源概念,并依次區(qū)分每個(gè)目標(biāo)概念。這鼓勵(lì)參與人員創(chuàng)建具有復(fù)雜語義的問題,這些問題通常需要先驗(yàn)知識(shí)。

我們通過這個(gè)過程創(chuàng)建了12247個(gè)問題,并用大量強(qiáng)大的基線說明了我們?nèi)蝿?wù)的難度。我們最好的基線是基于BERT-large(Devlinetal.,2018)的,獲得56%的準(zhǔn)確率,遠(yuǎn)低于人類表現(xiàn),即89%的準(zhǔn)確度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6231

    瀏覽量

    108144
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    561

    瀏覽量

    10791
  • 自然語言處理
    +關(guān)注

    關(guān)注

    1

    文章

    628

    瀏覽量

    14157

原文標(biāo)題:自然語言處理頂會(huì)NAACL最佳論文出爐!谷歌BERT名至實(shí)歸獲最佳長(zhǎng)論文

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)會(huì)議

    近日,計(jì)算語言學(xué)與自然語言處理領(lǐng)域全球頂級(jí)會(huì)議ACL 2025及語音研究領(lǐng)域旗艦會(huì)議INTERS
    的頭像 發(fā)表于 07-11 16:24 ?202次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室研究成果入選兩大頂級(jí)<b class='flag-5'>會(huì)議</b>

    格靈深瞳六篇論文入選ICCV 2025

    近日,國(guó)際頂級(jí)會(huì)議ICCV 2025(計(jì)算機(jī)視覺國(guó)際大會(huì))公布論文錄用結(jié)果,格靈深瞳團(tuán)隊(duì)共有6篇論文入選。
    的頭像 發(fā)表于 07-07 18:23 ?460次閱讀

    后摩智能與高校合作研究成果榮獲ISCA 2025最佳論文獎(jiǎng)

    》,成功榮獲第52屆計(jì)算機(jī)體系結(jié)構(gòu)國(guó)際研討會(huì)(ISCA)最佳論文獎(jiǎng)。作為國(guó)內(nèi)學(xué)術(shù)機(jī)構(gòu)在該會(huì)議上的首次獲獎(jiǎng)成果,其核心創(chuàng)新聚焦于邊緣側(cè)大語言
    的頭像 發(fā)表于 07-05 11:21 ?671次閱讀

    理想汽車八篇論文入選ICCV 2025

    近日,ICCV 2025(國(guó)際計(jì)算機(jī)視覺大會(huì))公布論文錄用結(jié)果,理想汽車共有8篇論文入選,其中5篇來自自動(dòng)駕駛團(tuán)隊(duì),3篇來自基座模型團(tuán)隊(duì)。ICCV作為計(jì)算機(jī)視覺領(lǐng)域的頂級(jí)學(xué)術(shù)
    的頭像 發(fā)表于 07-03 13:58 ?285次閱讀

    后摩智能四篇論文入選三大國(guó)際會(huì)

    2025 年上半年,繼年初被 AAAI、ICLR、DAC 三大國(guó)際會(huì)收錄 5 篇論文后,后摩智能近期又有 4 篇論文入選CVPR、ICML、ACL三大國(guó)際
    的頭像 發(fā)表于 05-29 15:37 ?374次閱讀

    云知聲四篇論文入選自然語言處理會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國(guó)際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4篇論文被接收,其中包括2篇主會(huì)論文(Main Paper)和2篇Findings。入選的4篇
    的頭像 發(fā)表于 05-26 14:15 ?570次閱讀
    云知聲四篇<b class='flag-5'>論文</b>入選<b class='flag-5'>自然語言</b><b class='flag-5'>處理</b><b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>ACL 2025

    后摩智能5篇論文入選國(guó)際會(huì)

    2025年伊始,后摩智能在三大國(guó)際會(huì)(AAAI、ICLR、DAC)中斬獲佳績(jī),共有5篇論文被收錄,覆蓋大語言模型(LLM)推理優(yōu)化、模型量化、硬件加速等前沿方向。
    的頭像 發(fā)表于 02-19 14:02 ?769次閱讀
    后摩智能5篇<b class='flag-5'>論文</b>入選國(guó)際<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>

    自然語言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語言處理的基本概念及步驟

    Learning,簡(jiǎn)稱ML)是人工智能的一個(gè)核心領(lǐng)域,它使計(jì)算機(jī)能夠從數(shù)據(jù)中學(xué)習(xí)并做出預(yù)測(cè)或決策。自然語言處理與機(jī)器學(xué)習(xí)之間有著密切的關(guān)系,因?yàn)闄C(jī)器學(xué)習(xí)提供一種強(qiáng)大的工具,用于從大量文本數(shù)據(jù)中提取模式和知識(shí),從而提高NLP系
    的頭像 發(fā)表于 12-05 15:21 ?1987次閱讀

    語音識(shí)別與自然語言處理的關(guān)系

    在人工智能的快速發(fā)展中,語音識(shí)別和自然語言處理(NLP)成為了兩個(gè)重要的技術(shù)支柱。語音識(shí)別技術(shù)使得機(jī)器能夠理解人類的語音,而自然語言處理則讓機(jī)器能夠理解、解釋和生成人類
    的頭像 發(fā)表于 11-26 09:21 ?1506次閱讀

    ASR與自然語言處理的結(jié)合

    ASR(Automatic Speech Recognition,自動(dòng)語音識(shí)別)與自然語言處理(NLP)是人工智能領(lǐng)域的兩個(gè)重要分支,它們?cè)谠S多應(yīng)用中緊密結(jié)合,共同構(gòu)成了自然語言理解和生成的技術(shù)體系
    的頭像 發(fā)表于 11-18 15:19 ?1026次閱讀

    自然語言處理與機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能的快速發(fā)展中,自然語言處理(NLP)和機(jī)器學(xué)習(xí)(ML)成為了兩個(gè)核心的研究領(lǐng)域。它們都致力于解決復(fù)雜的問題,但側(cè)重點(diǎn)和應(yīng)用場(chǎng)景有所不同。 1. 自然語言處理(NLP) 定義:
    的頭像 發(fā)表于 11-11 10:35 ?1551次閱讀

    使用LLM進(jìn)行自然語言處理的優(yōu)缺點(diǎn)

    自然語言處理(NLP)是人工智能和語言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語言。大型語言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?2458次閱讀

    經(jīng)緯恒潤(rùn)功能安全AI 智能體論文成功入選EMNLP 2024!

    :AnAdvancedLLM-BasedMulti-AgentforIntelligentFunctionalSafetyEngineering》成功入選EMNLP2024產(chǎn)業(yè)應(yīng)用分會(huì)(IndustryTrack)。EMNLP作為自然語言處理領(lǐng)域的高規(guī)格
    的頭像 發(fā)表于 10-18 08:00 ?707次閱讀
    經(jīng)緯恒潤(rùn)功能安全AI 智能體<b class='flag-5'>論文</b>成功入選EMNLP 2024!

    中科馭數(shù)聯(lián)合處理器芯片全國(guó)重點(diǎn)實(shí)驗(yàn)室獲得“CCF芯片大會(huì)最佳論文獎(jiǎng)”

    Accelerator on FPGA with Graph Reordering Engine》獲得“CCF芯片大會(huì)最佳論文獎(jiǎng)”。該項(xiàng)工作由鄢貴海研究員指導(dǎo)完成,論文第一作者是博士
    的頭像 發(fā)表于 08-02 11:09 ?1035次閱讀

    地平線科研論文入選國(guó)際計(jì)算機(jī)視覺會(huì)ECCV 2024

    近日,地平線兩篇論文入選國(guó)際計(jì)算機(jī)視覺會(huì)ECCV 2024,自動(dòng)駕駛算法技術(shù)再有新突破。
    的頭像 發(fā)表于 07-27 11:10 ?1466次閱讀
    地平線科研<b class='flag-5'>論文</b>入選國(guó)際計(jì)算機(jī)視覺<b class='flag-5'>頂</b><b class='flag-5'>會(huì)</b>ECCV 2024