完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>
標(biāo)簽 > 神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)可以指向兩種,一個(gè)是生物神經(jīng)網(wǎng)絡(luò),一個(gè)是人工神經(jīng)網(wǎng)絡(luò)。
文章:3659個(gè) 瀏覽:103522次 帖子:192個(gè)
TensorFlow學(xué)習(xí)之建立一個(gè)神經(jīng)網(wǎng)絡(luò)添加層
x_data = np.linspace(-1,1,300,dtype=np.float32)[:,np.newaxis]#創(chuàng)建-1,1的300個(gè)數(shù),此...
2018-03-31 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)TensorFlow 4781 0
DeepMind用強(qiáng)化對(duì)抗學(xué)習(xí)生成編寫(xiě)圖像的程序
我們?cè)O(shè)計(jì)了一款深度強(qiáng)化學(xué)習(xí)智能體SPIRAL,它可以和計(jì)算機(jī)的繪畫(huà)程序交互,可以在電子畫(huà)布上繪畫(huà),也可以改變筆刷的大小、按壓強(qiáng)度和顏色。未經(jīng)訓(xùn)練的智能體...
2018-03-31 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)DeepMind 4057 0
利用Tensorlow及其API為例來(lái)進(jìn)行討論,理解深度學(xué)習(xí)背后的魅力
我們能做的僅僅是在理解和抽象的層面上進(jìn)行操作。每一個(gè)層級(jí)接收低下傳上來(lái)的描述、丟棄它認(rèn)為不相關(guān)的部分并將它們自己對(duì)于信息的表示向上傳遞,直到到達(dá)真正知道...
2018-03-31 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí) 4366 0
揭秘谷歌AutoML背后的漸進(jìn)式搜索技術(shù)
Neural Architecture Search基本遵循這樣一個(gè)循環(huán):首先,基于一些策略規(guī)則創(chuàng)造簡(jiǎn)單的網(wǎng)絡(luò),然后對(duì)它訓(xùn)練并在一些驗(yàn)證集上進(jìn)行測(cè)試,最...
2018-03-30 標(biāo)簽:谷歌神經(jīng)網(wǎng)絡(luò) 7774 0
谷歌大腦與Jürgen Schmidhuber提出「人工智能夢(mèng)境」
大型 RNN 是具備高度表達(dá)能力的模型,可以學(xué)習(xí)數(shù)據(jù)豐富的時(shí)空表征。但是,文獻(xiàn)中很多無(wú)模型 RL 方法通常僅使用具備少量參數(shù)的小型神經(jīng)網(wǎng)絡(luò)。RL 算法通...
2018-03-30 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)人工智能 3605 0
如何實(shí)現(xiàn)基于加密數(shù)據(jù)進(jìn)行訓(xùn)練和預(yù)測(cè)的卷積神經(jīng)網(wǎng)絡(luò)
輸入提供者只需在一開(kāi)始傳輸他們的(加密)訓(xùn)練數(shù)據(jù);在此之后所有的計(jì)算只涉及兩個(gè)服務(wù)器,這意味著事實(shí)上輸入提供者使用手機(jī)之類的設(shè)備是可行的。訓(xùn)練之后,模型...
2018-03-29 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí) 9496 0
研究人員將擁有模擬整個(gè)人類大腦規(guī)模的神經(jīng)網(wǎng)絡(luò)的計(jì)算能力
隨著內(nèi)存消耗的控制,模擬速度將成為主要焦點(diǎn)。 例如,在Jülich的超級(jí)計(jì)算機(jī)JUQUEEN上運(yùn)行的由5.8萬(wàn)億突觸連接的5.2億神經(jīng)元大型模擬需要28...
2018-03-29 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)超級(jí)計(jì)算機(jī) 4527 0
深度學(xué)習(xí)的下一站是什么?算法領(lǐng)域沒(méi)有重大的突破
以深度神經(jīng)網(wǎng)絡(luò)(DNN)為例,眼下的傳統(tǒng)觀點(diǎn)認(rèn)為,如果我們繼續(xù)推進(jìn)、繼續(xù)投入,那么這些缺點(diǎn)就會(huì)被克服。比如說(shuō),從上世紀(jì)80年代到2000年代,我們知道如...
2018-03-29 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí) 4155 0
通過(guò)簡(jiǎn)單的「圖像旋轉(zhuǎn)」預(yù)測(cè)便可為圖像特征學(xué)習(xí)提供強(qiáng)大監(jiān)督信號(hào)
我們的研究遵循自監(jiān)督范例,并提出,通過(guò)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)(ConvNets)識(shí)別應(yīng)用于其作為輸入的圖像的幾何變換,從而學(xué)習(xí)圖像表示。更具體地說(shuō),首先,我們...
2018-03-26 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)圖像 4442 0
通過(guò)刪除神經(jīng)元來(lái)理解深度學(xué)習(xí)
深度神經(jīng)網(wǎng)絡(luò)由許多獨(dú)立的神經(jīng)元組成,這些神經(jīng)元以復(fù)雜且反直覺(jué)的方式結(jié)合起來(lái),進(jìn)而解決各種具有挑戰(zhàn)性的任務(wù)。這種復(fù)雜性賦予了神經(jīng)網(wǎng)絡(luò)強(qiáng)大的功能,但也使其成...
2018-03-26 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)人工智能 3763 0
基于深度學(xué)習(xí)的圖像塊型超分辨重建的經(jīng)典論文進(jìn)行關(guān)鍵技術(shù)點(diǎn)分析
基于Per-Pixel Loss的超分辨重建網(wǎng)絡(luò)目標(biāo)在于直接最小化高清原圖與超分辨重建圖像之間的差異,使得超分辨重建圖像逐步逼近原圖的清晰效果。但Per...
2018-03-26 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí) 6468 0
到底該選擇TensorFlow還是Keras深度學(xué)習(xí)框架選型指南
Keras的開(kāi)發(fā)設(shè)計(jì)注重用戶友好,因而某種意義上它更加pythonic。模塊化是Keras的另一個(gè)優(yōu)雅的設(shè)計(jì)指導(dǎo)原則。Keras中的任何東西都可以表示為...
2018-03-26 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)TensorFlow 7566 0
基于安全多方計(jì)算協(xié)議實(shí)現(xiàn)私密深度學(xué)習(xí)模型
運(yùn)算將在一個(gè)有限域上進(jìn)行,因此我們首先需要決定如何將有理數(shù)r表示為域元素,即取自0, 1, ..., Q-1的整數(shù)x(Q為質(zhì)數(shù))。我們將采用典型的做法,...
2018-03-26 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí) 9932 0
比谷歌快46倍!GPU助力IBM Snap ML,40億樣本訓(xùn)練模型僅需91.5秒
在為這樣的大規(guī)模應(yīng)用部署GPU加速時(shí),出現(xiàn)了一個(gè)主要的技術(shù)挑戰(zhàn):訓(xùn)練數(shù)據(jù)太大而無(wú)法存儲(chǔ)在GPU上可用的存儲(chǔ)器中。因此,在訓(xùn)練期間,需要有選擇地處理數(shù)據(jù)并...
2018-03-26 標(biāo)簽:谷歌神經(jīng)網(wǎng)絡(luò)GPU 4669 0
用TensorFlow寫(xiě)個(gè)簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)
這次就用TensorFlow寫(xiě)個(gè)神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)寫(xiě)的很簡(jiǎn)單,就三種層,輸入層--隱藏層----輸出層;
2018-03-23 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)TensorFlow 5324 0
三種回歸算法及其優(yōu)缺點(diǎn),將會(huì)為我們理解和選擇算法提供很好的幫助
在這一簡(jiǎn)單的模型中,單變量線性回歸的任務(wù)是建立起單個(gè)輸入的獨(dú)立變量與因變量之間的線性關(guān)系;而多變量回歸則意味著要建立多個(gè)獨(dú)立輸入變量與輸出變量之間的關(guān)系。
2018-03-23 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí) 1.5萬(wàn) 0
深度學(xué)習(xí)模型介紹,Attention機(jī)制和其它改進(jìn)
上述模型對(duì)于每個(gè)實(shí)體對(duì)只選用一個(gè)句子進(jìn)行學(xué)習(xí)和預(yù)測(cè),損失了大量的來(lái)自其它正確標(biāo)注句子的信息。為了在濾除wrong label case的同時(shí),能更有效地...
2018-03-22 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí) 1.9萬(wàn) 0
MIT的研究人員研發(fā)了一種新型神經(jīng)網(wǎng)絡(luò),稱為T(mén)ransparency by Design
一個(gè)VQA模型必須具備推理圖片中復(fù)雜場(chǎng)景的能力,例如,要回答“大金屬球右邊的正方體是什么顏色?”這個(gè)問(wèn)題,模型必須先判斷哪個(gè)球體是最大的,而且還是金屬的...
2018-03-21 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)MIT 3988 0
利用深層神經(jīng)網(wǎng)絡(luò)人工智能(AI)訓(xùn)練技術(shù)翻譯文本
從歷史上看,曾經(jīng)主流的機(jī)器學(xué)習(xí)技術(shù)在行業(yè)中應(yīng)用是統(tǒng)計(jì)機(jī)器翻譯 (SMT)。SMT 使用先進(jìn)的統(tǒng)計(jì)分析,從一句話中上下文的幾個(gè)詞中來(lái)估計(jì)最佳可能的翻譯。S...
2018-03-21 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)AI人工智能 7720 0
用進(jìn)化算法發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)架構(gòu)
綜上所述,盡管我們通過(guò)簡(jiǎn)單的初始架構(gòu)和直觀的突變來(lái)最小化處理研究人員的參與,但大量專家知識(shí)進(jìn)入了構(gòu)建這些架構(gòu)的構(gòu)建塊之中。其中一些包括重要的發(fā)明,如卷積...
2018-03-20 標(biāo)簽:神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí) 5308 0
編輯推薦廠商產(chǎn)品技術(shù)軟件/工具OS/語(yǔ)言教程專題
電機(jī)控制 | DSP | 氮化鎵 | 功率放大器 | ChatGPT | 自動(dòng)駕駛 | TI | 瑞薩電子 |
BLDC | PLC | 碳化硅 | 二極管 | OpenAI | 元宇宙 | 安森美 | ADI |
無(wú)刷電機(jī) | FOC | IGBT | 逆變器 | 文心一言 | 5G | 英飛凌 | 羅姆 |
直流電機(jī) | PID | MOSFET | 傳感器 | 人工智能 | 物聯(lián)網(wǎng) | NXP | 賽靈思 |
步進(jìn)電機(jī) | SPWM | 充電樁 | IPM | 機(jī)器視覺(jué) | 無(wú)人機(jī) | 三菱電機(jī) | ST |
伺服電機(jī) | SVPWM | 光伏發(fā)電 | UPS | AR | 智能電網(wǎng) | 國(guó)民技術(shù) | Microchip |
Arduino | BeagleBone | 樹(shù)莓派 | STM32 | MSP430 | EFM32 | ARM mbed | EDA |
示波器 | LPC | imx8 | PSoC | Altium Designer | Allegro | Mentor | Pads |
OrCAD | Cadence | AutoCAD | 華秋DFM | Keil | MATLAB | MPLAB | Quartus |
C++ | Java | Python | JavaScript | node.js | RISC-V | verilog | Tensorflow |
Android | iOS | linux | RTOS | FreeRTOS | LiteOS | RT-THread | uCOS |
DuerOS | Brillo | Windows11 | HarmonyOS |