首頁 > 新聞中心 > 牛人業(yè)話
聰明的你已經(jīng)發(fā)現(xiàn)了,這是一道比吃反物質(zhì)還要炸裂的題目。如果硬要把所有東西吃一遍的話,那么一勺電子絕對是一道壓軸菜。吃電子的勇敢的題主,也將成為一朵最壯美的煙花,恭喜! d( ̄▽ ̄*)b子曰:工欲善其事,必先利其器為......
1.4 傅立葉級數(shù)展開 之前我們在介紹泰勒展開式的時候提到過傅立葉級數(shù)。利用傅立葉級數(shù)對函數(shù)進(jìn)行展開相比于泰勒展開式,會具有更好的整體逼近性,而且對函數(shù)的光滑性也不再有苛刻的要求。傅立葉級數(shù)是傅立葉變換的......
如今兩年多過去了,USB 3.1到底發(fā)展成什么樣了?今天就來跟大家聊一聊這貨目前的現(xiàn)狀。......
無論你是即將踏出象牙塔的畢業(yè)汪, 還是已經(jīng)奮戰(zhàn)在一線的職小白, 都是需要時刻充電的?! e忘了社會主義社會新口號: 沉迷學(xué)習(xí),日漸消瘦?! ∩倌?, 世界上最遠(yuǎn)的距離,不是生與死, 而是我在學(xué)習(xí),你卻不學(xué)習(xí)。......
本篇博客為斯坦福ML公開課第五個視頻的筆記,主要內(nèi)容包括生成學(xué)習(xí)算法(generate learning algorithm)、高斯判別分析(Gaussian DiscriminantA......
這一系列的文章中間中斷了很久,很多朋友也留言希望我繼續(xù)連載完,遂“重拾舊河山”,希望如果有時間能夠把它做完?! ”竟?jié)我們介紹歐拉公式,它是復(fù)變函數(shù)中非常重要的一個定理,同時對于傅立葉變換的理解也必不可少。我們在高等數(shù)......
深度學(xué)習(xí)是近十年來人工智能領(lǐng)域取得的重要突破。它在語音識別、自然語言處理、計(jì)算機(jī)視覺、圖像與視頻分析、多媒體等諸多領(lǐng)域的應(yīng)用取得了巨大成功?,F(xiàn)有的深度學(xué)習(xí)模型屬于神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)的起源可追溯到20世紀(jì)40年代,曾經(jīng)......
每天,都會有人在微博上私信我,問我關(guān)于學(xué)習(xí)和成長的問題。這種問題我一般都不會回復(fù)某個j,畢竟每個人的情況不一樣,每個人對待事物的性格也不一樣,我不能夸下??诘恼f,你看某本書幾個月就能如何如何,我能做的多數(shù)時候只是鼓勵......
在高斯模糊算法的全面優(yōu)化過程分享(一)一文中我們已經(jīng)給出了一種相當(dāng)高性能的高斯模糊過程,但是優(yōu)化沒有終點(diǎn),經(jīng)過上一個星期的發(fā)憤圖強(qiáng)和測試,對該算法的效率提升又有了一個新的高度,這里把優(yōu)化過程中的一些心得和收獲用文字的......
這里的高斯模糊采用的是論文《Recursive implementation of the Gaussian filter》里描述的遞歸算法?! ∽屑?xì)觀察和理解上述公......
43.2%在閱讀
23.2%在互動