国产v亚洲v天堂无码久久无码_久久久久综合精品福利啪啪_美女扒开尿口让男人桶_国产福利第一视频在线播放_滨崎步无码AⅤ一区二区三区_三年片免费观看了_大屁股妇女流出白浆_泷川苏菲亚无码AV_我想看我想看一级男同乱伦_国产精品午夜福利免费视频,gogo国模全球大胆高清摄影图,2008门艳照全集视频,欧美午夜在线精品品亚洲AV中文无码乱人伦在线播放

團隊4篇論文被CCF B類國際會議ICASSP 2025錄用

2025年IEEE國際聲學(xué),、語音與信號處理會議(IEEE International Conference on Acoustics, Speech, and Signal Processing, ICASSP 2025)將于2025年4月6日至11日在印度海得拉巴隆重舉行,。作為IEEE信號處理學(xué)會的旗艦會議,ICASSP致力于推動聲學(xué),、語音和信號處理領(lǐng)域的前沿研究與創(chuàng)新,,并促進跨學(xué)科合作與交流,。每年,,該會議都會吸引全球頂尖學(xué)者和工程師匯聚一堂,,是信號處理領(lǐng)域極具影響力的學(xué)術(shù)盛會之一,也被中國計算機學(xué)會列為權(quán)威學(xué)術(shù)會議(CCF B類),。在本次會議中,,由潘家輝、梁艷,、王斐等老師指導(dǎo)的團隊成員郝巖,、陳明輝、李卓蓉,、鄭澤昆,,憑借出色的研究成果,成功投稿了4篇論文,,且均以full paper形式被順利錄用,。

論文1:

郝巖(2021級研究生)和梁艷老師研究成果《An End-to-End Graph-Guided Spatiotemporal Model for Adaptive Frame-Level Facial Affect Analysis in the Wild》的主要工作:

  1. 提出了一種具有節(jié)點編碼器的端到端圖引導(dǎo)時空卷積網(wǎng)絡(luò)(graph-guided spatiotemporal convolutional network, GSTCN)用于幀級別的情感分析,利用圖結(jié)構(gòu)對人臉圖像信息進行建模,,并利用圖卷積網(wǎng)絡(luò)和時序卷積網(wǎng)絡(luò)對表情序列的空間時序信息進行提取。如圖1所示,。
  2. 提出了一種基于軌跡振蕩系數(shù)(trajectory oscillating coefficient, TOC)算法的自適應(yīng)情感編碼模型,,幫助GSTCN自動選擇最具代表性的運動區(qū)域作為視頻序列中圖結(jié)構(gòu)的節(jié)點。
  3. 采用了一種新的幀級別損失函數(shù),,提高基于一致性相關(guān)系數(shù)(Concordance Correlation Coefficient, CCC)的模型在訓(xùn)練過程中的優(yōu)化效果,。

實驗結(jié)果表明,該方法優(yōu)于最先進的方法,。此外,,所提出的方法在端到端的愉悅度-喚醒度(valence-arousal, VA)估計方面的有效性也得到了可視化,。

圖1 GSTCN模型結(jié)構(gòu)圖

論文2:

陳明輝(2023級研究生)和潘家輝教授的研究成果《Meta-MMD Fusion: Enhancing Cross-Subject Motor Imagery Classification》主要貢獻(xiàn)如下:

  1. 提出META-MMD方法:該研究提出了一種新的跨受試者運動想象分類方法META-MMD。該方法通過最大均值差異(MMD)度量,,利用元梯度更新最小化支持集和查詢集之間的分布差異,,從而有效提升分類性能。
  2. 創(chuàng)新元學(xué)習(xí)訓(xùn)練策略:研究設(shè)計了一種結(jié)合留一法交叉驗證(LOOCV)的元學(xué)習(xí)訓(xùn)練策略,。通過構(gòu)建多個元任務(wù),,每次將一個樣本作為查詢集,其余樣本作為支持集進行循環(huán)迭代,,從而增強模型的魯棒性和泛化能力,。這一策略有效解決了數(shù)據(jù)有限的問題,并顯著提升了模型對未見受試者的適應(yīng)能力,。
  3. 實現(xiàn)SOTA性能:META-MMD方法通過結(jié)合元學(xué)習(xí)和MMD技術(shù),,實現(xiàn)了跨受試者運動想象分類的SOTA性能。該方法能夠全面學(xué)習(xí)和對齊不同受試者之間的特征,,展現(xiàn)了其在不同受試者間的廣泛適應(yīng)性及特征的有效性,。

圖2 Meta-MMD結(jié)構(gòu)圖

論文3:

李卓蓉(2022級研究生)和王斐副教授研究成果《DARN: An Attention-Based Neural Network Using Residual Blocks for Sleep Micro-Events Detection》的主要工作:

1. 基于卷積神經(jīng)網(wǎng)絡(luò),結(jié)合注意力機制與雙向長短期記憶單元來提取時間特征,,有效地捕獲了時間序列中的長距離依賴關(guān)系,,提高檢測的性能和模型的魯棒性。

2. 引入殘差模塊,,促進更深層次網(wǎng)絡(luò)的訓(xùn)練,。該方法解決了梯度消失和網(wǎng)絡(luò)退化等常見問題,從而提升檢測精度,,使得模型更加準(zhǔn)確地識別潛在的睡眠特征波,。

3. 研究的方法用于檢測不同的睡眠特征波,包括睡眠紡錘波和K復(fù)合波,,驗證方法的泛化能力以及不同場景和數(shù)據(jù)分布下的穩(wěn)健性,。

圖3 DARN模型結(jié)構(gòu)圖

論文4:

鄭澤昆(2023級研究生)和王斐副教授研究成果《EfficientSleepNet: A Novel Lightweight End-to-End Model for Automated Sleep Staging on Single-Channel EEG》的主要工作:

  1. 提出了一種名為EfficientSleepNet的單通道自動睡眠分期方法。該方法在顯著降低了參數(shù)量和計算復(fù)雜度的同時,,仍具有較好的性能,,且具有應(yīng)用于實時睡眠監(jiān)測的潛力,如圖4所示,。
  2. 提出了一種新穎的多歷元輸入自動睡眠分期模型,,將當(dāng)前歷元與前四個單歷元模型的輸出結(jié)合,作為多歷元模型的輸入,。該方法能夠有效捕捉歷元之間的時間依賴關(guān)系,,同時避免依賴未來數(shù)據(jù),從而顯著提升模型的實時性能。
  3. 提出了一種新的卷積特征提取方法,,該方法結(jié)合了分組卷積,、通道重排(channel shuffling)和膨脹卷積,以降低模型復(fù)雜度并擴展感受野,,從而捕獲更全面的特征信息,。

fig.1

圖4 EfficientSleepNet模型結(jié)構(gòu)圖


登錄用戶可以查看和發(fā)表評論, 請前往  登錄 或  注冊,。
SCHOLAT.com 學(xué)者網(wǎng)
免責(zé)聲明 | 關(guān)于我們 | 用戶反饋
聯(lián)系我們: