称博彩专业就业形势好居第二-博彩网址天上人间赚钱-购物返现金网店好做吗-皇冠现金网骗人

學(xué)校首頁(yè)

學(xué)校首頁(yè)

寧夏大學(xué)建校六十周年“學(xué)術(shù)校慶”系列學(xué)術(shù)報(bào)告(二十五)

發(fā)表時(shí)間:2018-06-13
分享:

時(shí)間:2018年6月22日星期五8:00-11:30

地點(diǎn):寧夏大學(xué)懷遠(yuǎn)校區(qū)寧遠(yuǎn)樓413

特邀講者1孟德宇(西安交通大學(xué)數(shù)學(xué)與統(tǒng)計(jì)學(xué)院教授、博導(dǎo))

曾赴香港理工大學(xué),Essex大學(xué)與卡內(nèi)基梅隆大學(xué)進(jìn)行學(xué)術(shù)訪(fǎng)問(wèn)與合作。共接收/發(fā)表論文80余篇,其中包括IEEE Trans論文22篇和CCF A類(lèi)會(huì)議30篇。擔(dān)任ICML,NIPS等會(huì)議程序委員會(huì)委員,AAAI2016高級(jí)程序委員會(huì)委員。目前主要聚焦于自步學(xué)習(xí)、誤差建模、張量稀疏性等機(jī)器學(xué)習(xí)相關(guān)方向的研究。

報(bào)告題目:大數(shù)據(jù)環(huán)境下的機(jī)器學(xué)習(xí)誤差建模方法

報(bào)告摘要:傳統(tǒng)機(jī)器學(xué)習(xí)主要關(guān)注于確定性信息的建模,而在復(fù)雜場(chǎng)景下,機(jī)器學(xué)習(xí)方法容易出現(xiàn)對(duì)數(shù)據(jù)噪音的魯棒性問(wèn)題,而該魯棒性問(wèn)題與誤差函數(shù)的選擇緊密相關(guān)。本次報(bào)告聚焦于如何針對(duì)包含復(fù)雜噪音數(shù)據(jù)進(jìn)行誤差建模的魯棒機(jī)器學(xué)習(xí)原理,特別針對(duì)大數(shù)據(jù)環(huán)境下,分布式/在線(xiàn)誤差建模方法的機(jī)理與實(shí)現(xiàn)進(jìn)行介紹。這一原理對(duì)在線(xiàn)視頻處理、醫(yī)學(xué)圖像恢復(fù)等問(wèn)題,已體現(xiàn)出個(gè)性化的應(yīng)用優(yōu)勢(shì),該原理亦有希望能夠引導(dǎo)出更多有趣的機(jī)器學(xué)習(xí)相關(guān)應(yīng)用與發(fā)現(xiàn)。

特邀講者2張林(同濟(jì)大學(xué)副教授、博導(dǎo))

同濟(jì)大學(xué)軟件學(xué)院媒體藝術(shù)與科學(xué)教研室主任,IEEE高級(jí)會(huì)員、中國(guó)計(jì)算機(jī)學(xué)會(huì)(CCF)高級(jí)會(huì)員、CCF計(jì)算機(jī)視覺(jué)專(zhuān)業(yè)委員會(huì)委員、視覺(jué)與學(xué)習(xí)青年研討會(huì)(VALSE)在線(xiàn)組委會(huì)委員。2003年和2006年在上海交通大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)系分別獲得學(xué)士和碩士學(xué)位。之后曾供職于Microsoft和Autodesk公司。2011年8月于香港理工大學(xué)獲得博士學(xué)位,并加入同濟(jì)大學(xué),2013年入選上海市浦江人才計(jì)劃。主要研究興趣包括機(jī)器視覺(jué)與圖像理解、智能駕駛中的環(huán)境感知、生物特征識(shí)別、多媒體質(zhì)量評(píng)價(jià)等。以第一作者身份已在IEEE T-PAMI、IEEE T-IP、IEEE T-MM、Pattern Recognition、Image and Vision Computing等期刊上發(fā)表論文18篇。根據(jù)Google Scholar統(tǒng)計(jì),其所發(fā)表論文的被引用次數(shù)已逾4200次;其中,3篇論文入選ESI高被引論文。其論文“FSIM: A feature similarity

index for image quality assessment, IEEE Trans. Image Processing, 20 (8)

2378-2386, 2011”為IEEE T-IP自2011年以來(lái)所有發(fā)表論文中被引用次數(shù)最高的論文,目前被引用1760次。其論文“Online finger-knuckle-print verification for personal

authentication, Pattern Recognition, 43 (7) 2560-2571, 2010”曾獲Pattern Recognition雜志最佳論文提名。其論文“3D ear identification

using LC-KSVD and local histograms of surface types”獲得ICME2015最佳論文提名。

報(bào)告題目:計(jì)算機(jī)視覺(jué)技術(shù)在無(wú)人駕駛系統(tǒng)中的若干實(shí)踐

報(bào)告摘要:視覺(jué)感知是無(wú)人駕駛系統(tǒng)環(huán)境感知模塊的重要組成部分。本報(bào)告將分享報(bào)告人課題組在無(wú)人駕駛視覺(jué)感知方面的一些積累和體會(huì),主要包括“基于視覺(jué)的泊車(chē)位檢測(cè)與定位”和“基于視覺(jué)的行人與減速帶的檢測(cè)與測(cè)距”兩個(gè)部分。報(bào)告人所研發(fā)技術(shù)已經(jīng)應(yīng)用于實(shí)車(chē)產(chǎn)品。

特邀講者3樊鑫(大連理工大學(xué)教授、博士生導(dǎo)師)

分別于1998年和2005年西安交通大學(xué)信息與通信工程專(zhuān)業(yè)獲工學(xué)學(xué)士和博士學(xué)位。2005年7月至2009年10月在大連海事大學(xué)信息工程學(xué)院任講師,在此期間在美國(guó)進(jìn)行三年的博士后研究,2009年11月起在大連理工大學(xué)軟件學(xué)院任教。主要研究方向?yàn)闄C(jī)器視覺(jué)和圖像處理。主持1項(xiàng)國(guó)家自然科學(xué)基金重點(diǎn)項(xiàng)目,3項(xiàng)面上/青年項(xiàng)目,以及國(guó)家863項(xiàng)目子課題,在Nature旗下期刊、圖像處理領(lǐng)域頂級(jí)期刊和會(huì)議IEEE TIP, TMM, AAAI,

IJCAI等發(fā)表論文80余篇。入選2011年度教育部“新世紀(jì)優(yōu)秀人才支持計(jì)劃”,遼寧省“百千萬(wàn)人才工程”千人層次。獲得遼寧省科技進(jìn)步二等獎(jiǎng)與大連市科技進(jìn)步一等獎(jiǎng)各1項(xiàng),獲得遼寧省教學(xué)成果一等獎(jiǎng)1項(xiàng),作為通訊作者獲得國(guó)際多媒體旗艦會(huì)議ICME2015最佳學(xué)生論文,入選ICME2017最佳論文候選、國(guó)際圖像處理大會(huì)ICIP2013最佳論文候選、ICIP2015 top10%論文。申請(qǐng)/授權(quán)國(guó)家發(fā)明專(zhuān)利21項(xiàng)。

報(bào)告題目:Deep unrolling for low-level vision

報(bào)告摘要:Deep learning models have gained great success in manyreal-world applications. However, most existing networks are typically designed in heuristic manners, and thus lack of rigorous mathematical principles and derivations. In this talk, we will introduce a series of unrolling based deep model to incorporate rich domain knowledge to address various low-level vision tasks, such as image restoration, deblurring, dehazing, deraining, underwater and low-light enhancement. Some other related applications will also be discussed.

歡迎廣大師生屆時(shí)光臨!

                                                                              數(shù)學(xué)統(tǒng)計(jì)學(xué)院

                                                                              2018年6月13日

最新動(dòng)態(tài)