Talk預(yù)告 | 東京大學(xué)博士生劉海洋:多模態(tài)驅(qū)動談話動作生成-質(zhì)量與多樣性

本期為TechBeat人工智能社區(qū)第471期線上Talk!
北京時間2月1日(周三)20:00,東京大學(xué)情報理工系博士生——劉海洋的Talk將準時在TechBeat人工智能社區(qū)開播!他與大家分享的主題是:?“多模態(tài)驅(qū)動談話動作生成:質(zhì)量與多樣性?”,屆時將介紹多模態(tài)驅(qū)動談話動作生成領(lǐng)域的進展。
Talk·信息
主題:多模態(tài)驅(qū)動談話動作生成:質(zhì)量與多樣性
嘉賓:東京大學(xué)情報理工系博士生 劉海洋
時間:北京時間?2月1日?(周三) 20:00
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/

完整版怎么看
掃描下方二維碼,或復(fù)制鏈接https://datayi.cn/w/4Rzb3ALR瀏覽器,一鍵完成預(yù)約!上線后會在第一時間收到通知哦
Talk·介紹
隨著AIGC技術(shù)的發(fā)展,生成模型在動畫建模上已經(jīng)取得了出色的成果,業(yè)界和學(xué)界的研究重心逐漸從建模轉(zhuǎn)向驅(qū)動,即探索基于AI的由低成本信號驅(qū)動的動作生成算法。目前的算法由于缺乏顯式的模型設(shè)計,以及豐富的訓(xùn)練數(shù)據(jù),在生成結(jié)果的質(zhì)量和多樣性上仍與真實數(shù)據(jù)存在較大差異。提升生成動作的多樣性和質(zhì)量是學(xué)界的熱點及難點。
Talk大綱如下:
本報告將介紹多模態(tài)驅(qū)動談話動作生成領(lǐng)域的進展,首先進行背景介紹(引出多樣性和質(zhì)量問題),之后介紹針對多樣性提出的:基于動作特征解耦的動作生成算法,最后介紹針對該任務(wù)構(gòu)建的新數(shù)據(jù)集,基線模型和評估標準,著重于生成情感和語意相關(guān)的動作。
Talk·預(yù)習(xí)資料
DisCo: disentangled implicit content and rhythm learning for diverse co-speech gesture synthesis, ACMMM 2022,?https://pantomatrix.github.io/DisCo/??
BEAT: A Large-Scale Semantic and Emotional Multi-Modal Dataset for Conversational Gestures Synthesis, ECCV 2022,?https://pantomatrix.github.io/BEAT/??
Talk·提問交流
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應(yīng)的i豆積分,還會有驚喜獎勵哦!
Talk·嘉賓介紹

東京大學(xué)情報理工系博士生
劉海洋,現(xiàn)為東京大學(xué)情報理工系博士生。2020年獲早稻田大學(xué)工學(xué)碩士學(xué)位,2019年獲東南大學(xué)工學(xué)學(xué)士學(xué)位。主要研究方向包括:多模態(tài),生成模型,音頻識別,人體姿態(tài)估計等,主要工作集中于基于單/多模態(tài)生成更真實,有表現(xiàn)力的肢體/面部動作,從而構(gòu)建基于AI的動畫制作管線。其研究成果發(fā)表于ECCV, KDD, ACMMM等國際會議。
個人主頁:https://h-liu1997.github.io/

-The End-

關(guān)于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務(wù)和體驗,加速并陪伴其學(xué)習(xí)成長。 期待這里可以成為你學(xué)習(xí)AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據(jù)地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ