Talk預告 | 伊利諾伊大學安全學習實驗室系列⑥:可信機器學習:基于決策邊界的黑盒攻擊

本期為TechBeat人工智能社區(qū)第386期線上Talk,也是伊利諾伊大學安全學習實驗室“可信機器學習: 機器學習魯棒性,隱私性,泛化性,及其內在關聯”的系列Talk第⑥場。北京時間3月3日(周四)20:00,伊利諾伊大學在讀博士生——李慧琛的Talk將準時在TechBeat人工智能社區(qū)開播!
她與大家分享的主題是: “可信機器學習:基于決策邊界的黑盒攻擊”,屆時將分享一系列探索“黑盒攻擊效率”的工作,以期為預防現實中的潛在攻擊提供借鑒。
Talk·信息
主題:可信機器學習:基于決策邊界的黑盒攻擊
嘉賓:伊利諾伊大學在讀博士生李慧琛
時間:北京時間?3月3日?(周四) 20:00
地點:TechBeat人工智能社區(qū)
http://www.techbeat.net/

完整版怎么看?
掃描下方二維碼,或復制鏈接https://datayi.cn/w/Y9Jxq6bP至瀏覽器,一鍵完成預約!上線后會在第一時間收到通知哦
Talk·提綱
機器學習在許多領域取得了突出的表現并因此獲得了廣泛的應用,但仍有種種安全性問題有待解決。機器學習模型很容易遭到對抗攻擊:譬如攻擊者只需對一個模型的輸入樣本引入十分微小的擾動,就能使得對應的輸出產生巨大的偏差。通過對模型梯度的計算,攻擊者能十分便捷地獲取這種擾動。然而即便是一個“黑盒”狀態(tài)的機器學習圖像分類模型:當它的內部結構、權重乃至置信度數值都被隱藏起來,只有最后對類別的預測標簽被保留時,攻擊者雖然沒法直接通過模型梯度來計算所需擾動,卻仍能有效地生成人們肉眼難以察覺的對抗樣本。我將與大家分享一系列探索“黑盒攻擊效率”的工作,以期為預防現實中的潛在攻擊提供借鑒。
具體分享提綱如下:
· 什么是基于決策邊界的黑盒攻擊,對于防御者而言有多大威脅性?
· 為了生成這種黑盒攻擊,攻擊者一方有哪些難點?
· 我們的探索與發(fā)現:攻擊者能將黑盒攻擊的效率提高到什么程度?
Talk·預習資料
QEBA: Query-Efficient Boundary-Based Blackbox Attack: CVPR2020?https://openaccess.thecvf.com/content_CVPR_2020/papers/Li_QEBA_Query-Efficient_Boundary-Based_Blackbox_Attack_CVPR_2020_paper.pdf
Nonlinear Projection Based Gradient Estimation for Query Efficient Blackbox Attacks: AISTATS2021
https://arxiv.org/pdf/2102.13184.pdf
Progressive-Scale Boundary Blackbox Attack via Projective Gradient Estimation: ICML2021
https://arxiv.org/pdf/2102.13184.pdf
Talk·提問交流
通過以下兩種方式提問都將獲得微信現金紅包獎勵哦!
方式 ①
在Talk界面下的【交流區(qū)】參與互動!留下你的打call??和問題??,和更多小伙伴們共同討論,被講者直接翻牌解答!

你的每一次貢獻,我們都會給予你相應的i豆積分,還會有驚喜獎勵哦!
方式 ②
在本文留言區(qū)直接提出你的問題,或掃描下方二維碼提問!

Talk·嘉賓介紹

伊利諾伊大學在讀博士生
李慧琛,UIUC CS在讀博士生,師從李博教授。曾獲Chirag Foundation Graduate?Fellowship。本科就讀于上海交通大學ACM班,曾獲校優(yōu)秀畢業(yè)生榮譽。曾于Cornell和UC Berkeley實驗室實習。
她的研究方向是可信機器學習,包括機器學習的安全性、魯棒性,以及可解釋性。她希望通過對機器學習系統(tǒng)的攻擊與防御,探索罕見或極端場景,了解系統(tǒng)的潛在風險,提升安全性;她也希望為機器學習模型的預測作出相應的解釋,從而使這些系統(tǒng)能更趨透明、更易理解、更可信任。
她曾在機器學習及相關領域會議CVPR、ICML、CoRL、AISTATS、計算機安全頂會IEEE S&P上發(fā)表論文。
個人主頁:https://scholar.google.com/citations?hl=en&user=Vf3dpOgAAAAJ

系列Talk介紹

伊利諾伊大學安全學習實驗室SL2(Secure Learning Lab)(http://boli.cs.illinois.edu/)由助理教授李博以及10名博士生和1名博士后組成,實驗室隸屬于計算機組(https://cs.illinois.edu/)。
我們相信機器學習的安全性,隱私保護,可解釋性等可信賴性質是引領未來機器學習算法和模型大規(guī)模部署和應用的重要特質,尤其是在自動駕駛等對安全性質要求頗高的應用中?;诖撕诵睦砟?,SL2實驗室的研究重點是構建可驗證性的可信機器學習算法,平臺和系統(tǒng),從而部署于不同的實際應用中。
從2月16日開始,每周三、周四晚20點,伊利諾伊大學安全學習實驗室的老師及同學們將帶來一系列的Talk分享,議程如下:


關于TechBeat人工智能社區(qū)
TechBeat (www.techbeat.net) 是一個薈聚全球華人AI精英的成長社區(qū)。 我們希望為AI人才打造更專業(yè)的服務和體驗,加速并陪伴其學習成長。 期待這里可以成為你學習AI前沿知識的高地,分享自己最新工作的沃土,在AI進階之路上的升級打怪的根據地!
更多詳細介紹>>https://mp.weixin.qq.com/s/pTbCK_MeTk05jK2yx1RTrQ