国产v亚洲v天堂无码久久无码_久久久久综合精品福利啪啪_美女扒开尿口让男人桶_国产福利第一视频在线播放_滨崎步无码AⅤ一区二区三区_三年片免费观看了_大屁股妇女流出白浆_泷川苏菲亚无码AV_我想看我想看一级男同乱伦_国产精品午夜福利免费视频,gogo国模全球大胆高清摄影图,2008门艳照全集视频,欧美午夜在线精品品亚洲AV中文无码乱人伦在线播放

周成菊 Zhou Chengju

副研究員/Associate Research Fellow

華南師范大學(xué) 軟件學(xué)院

計(jì)算機(jī)視覺(jué) , 模式識(shí)別 , 深度學(xué)習(xí)

周成菊 

特聘副研究員 

華南師范大學(xué)軟件學(xué)院 

[email protected]



團(tuán)隊(duì)主頁(yè):
教育背景:


 2012.04-2019.03,  大阪大學(xué)(2019QS排名67)計(jì)算機(jī)科學(xué)專(zhuān)業(yè)(工學(xué)博士)

 2011.10-2012.04,   大阪大學(xué)研究生學(xué)習(xí)

 2010.10-2011.09,   東北師范大學(xué),基礎(chǔ)日語(yǔ)學(xué)習(xí)

 2008.09-2010.12,  大連理工大學(xué)(985/211) 信息與信號(hào)處理專(zhuān)業(yè)(工學(xué)碩士)

 2004.09-2008.06, 大連理工大學(xué)(985/211) 電子信息工程專(zhuān)業(yè)(工學(xué)學(xué)士)


工作經(jīng)歷:


2020.05-至今,,華南師范大學(xué)軟件學(xué)院,,特聘副研究員 

2019.04-2020.03, 大阪大學(xué)產(chǎn)業(yè)科學(xué)研究所復(fù)合智能媒體(八木)實(shí)驗(yàn)室特任研究員


研究經(jīng)歷:


特任研究員階段:

研究工作:

基于深度學(xué)習(xí)算法和相關(guān)的醫(yī)學(xué)知識(shí),,通過(guò)老人在完成特定任務(wù)(Dual-Task踏步)時(shí)的圖像序列信息,,提取步態(tài)特征并研究其與認(rèn)知水平的關(guān)系,。與傳統(tǒng)的需要特定醫(yī)療工作人員測(cè)定認(rèn)知水平的方法相比,,該方法可以快速自動(dòng)的完成老人認(rèn)知水平的測(cè)定,。

博士階段: 

導(dǎo)師:八木 康史 教授 

參與項(xiàng)目:

日本政府領(lǐng)導(dǎo)的戰(zhàn)略性的創(chuàng)造研究推進(jìn)事業(yè) CREST項(xiàng)目基于步態(tài)意圖行為模式的人物行為的解析和心理環(huán)境構(gòu)建” 高齡者步態(tài)解析 孩子成長(zhǎng)狀況估計(jì)(項(xiàng)目總經(jīng)費(fèi):3000萬(wàn)人民幣)

研究工作:

(1) 運(yùn)用背景減除和圖像校正等圖像處理和線性判別分析等模式識(shí)別的方法,,對(duì)由彩色錄像機(jī)采集的走路數(shù)據(jù)個(gè)體進(jìn)行健康,、眼疾、腿疾等模式判別從而可以檢測(cè)出不同種類(lèi)的身體不便的走路模式,。相較于更多采用穿戴式傳感器監(jiān)測(cè)的方式,,該方法可以在無(wú)需識(shí)別對(duì)象配合的狀態(tài)下,檢測(cè)到身體不便的,。由此,,該功能可嵌入監(jiān)控?cái)z像機(jī)(例如:CCTV)中,運(yùn)用于公共場(chǎng)合,。例如,,可在商場(chǎng)或者大型超市,對(duì)于檢測(cè)到的身體不便的人士由機(jī)器人           或者服務(wù)人員提供相應(yīng)的輔助服務(wù),。

(2)基于模式識(shí)別和相關(guān)的醫(yī)學(xué)知識(shí),,通過(guò)分析由深度相機(jī)Kinect采集的3D關(guān)節(jié)點(diǎn)的(Dual-Task)踏步數(shù)據(jù),對(duì)老人的認(rèn)知能力進(jìn)行估計(jì),。相較于傳統(tǒng)的需要完成問(wèn)卷式的測(cè)試,,該方法可以快速簡(jiǎn)單的判斷老人是否有認(rèn)知方面的障礙。

(3)基于模式識(shí)別(包括深度學(xué)習(xí))和相關(guān)的醫(yī)學(xué)知識(shí),,通過(guò)分析孩子完成特定任務(wù)(Dual-task)的表現(xiàn),,對(duì)孩子的身形,運(yùn)動(dòng)和認(rèn)知方面的成長(zhǎng)狀況進(jìn)行估計(jì)判斷,。該方法可以在孩子在完成體感游戲的同時(shí),,達(dá)到成長(zhǎng)狀況的快速估計(jì)目的。

碩士階段:

導(dǎo)師:盧湖川 教授 

研究工作:

基于Graph Cut 改進(jìn)的圖像分割,。


科研發(fā)表成果:


期刊:

[1]C. Zhou, I. Mitsugami, Y. Yagi, “Detection of Gait Impairment by Patch-GEI”, IEEJ Transactions on Electrical and Electronic Engineering, Vol.10, No.S1, 2015 (SCI).

[2] F. Okura, I. Mitsugami, M. Niwa, K. Aoki, C. Zhou, Y. Yagi, “Automatic collection of dual-task human behavior for analysis of cognitive function”, ITE Transactions on Media Technology and Applications (MTA), 2018.

[3] C. Zhou, I. Mitsugami, F. Okura, K. Aoki, Y. Yagi, “Growth Assessment of School-Age Children from Dual-Task Observation”, ITE Transactions on Media Technology and Applications (MTA), 2018.

會(huì)議:

[1] C. Zhou, I. Mitsugami, Y. Yagi, “an attempt to detect impairment by silhouette-based gait feature”, 22th European Society of Movement Analysis for Adults and Children (ESMAC) 2013.

[2] C. Zhou, I. Mitsugami, Y. Yagi, “performance evaluation of GEI for impairment detection”, 16th Meeting on Image Recognition and understanding(MIRU) 2013. 

[3] C. Zhou, I. Mitsugami, Y. Yagi, “Which Gait Feature Is Effective for Impairment Estimation”, 20th Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV) 2014.

[4] C. Zhou, I. Mitsugami, Y. Yagi, “Assessing Cognition Level of Elderly Using Dual-task Stepping”, 18th Meeting on Image Recognition and Understanding (MIRU) 2015. 

[5]C. Zhou, I. Mitsugami, K. Aoki, F. Okura, Y. Yagi, “Age Estimation from Dual-Task Behavior for Comprehensive Growth Assessment of  Children”, The International Workshop on Frontiers of Computer Vision (IW-FCV) 2018.


學(xué)術(shù)活動(dòng):


受邀演講:

201511 在吉隆坡舉辦的第3 Asian Conference on Pattern Recognition (ACPR) International Workshop on Human Behavior Analysis in the Real World 上演講,。

海報(bào)發(fā)表:

(1)  201307 在東京舉辦的第16Meeting on Image Recognition and Understanding (MIRU) 會(huì)議上發(fā)表。

(2) 201309 在蘇格蘭格拉斯哥第22European Society of Movement Analysis for Adults and Children (ESMAC) 會(huì)議上發(fā)表,。

(3) 201409月在沖繩舉辦的第20Korea-Japan Joint Workshop on Frontiers of Computer Vision (FCV) 上做發(fā)表,。

(4) 201507月在大阪舉辦的第18Meeting on Image Recognition and Understanding (MIRU) 會(huì)議上發(fā)表。

(5) 201511 在北京舉辦的第10International Workshop on Robust Computer Vision (IWRCV) 上發(fā)表,。

(6) 201512 在大阪舉辦的19 SANKEN International Symposium上發(fā)表,。

(7) 201802 在北海道舉辦的The International Workshop on Frontiers of Computer Vision (IW-FCV) 上發(fā)表,。


 












CONTACT Me
Scholat.com/zhouchengju
我的主頁(yè)
獲取微信名片
  •  團(tuán)隊(duì)主頁(yè):

  •  教育背景:

  •  工作經(jīng)歷:

  •  研究經(jīng)歷:

  •  科研發(fā)表成果:

  •  學(xué)術(shù)活動(dòng):

  • Contact Me

SCHOLAT.com 學(xué)者網(wǎng)
ABOUT US | SCHOLAT