![Mischief : Transformerモデルを単純な](https://aisholar.s3.ap-northeast-1.amazonaws.com/media/November2020/%E3%81%AB%E3%82%93%E3%81%92%E3%82%93_%E3%81%AB%E3%81%AF_%E8%AA%AD%E3%82%81%E3%82%8B_%E3%81%B5%E3%81%97%E3%81%8E%E3%81%AA_%E3%81%91%E3%82%93%E3%81%8D%E3%82%85%E3%81%86-min.png)
Mischief : Transformerモデルを単純な "いたずら" 攻撃によって騙す
3つの要点
✔️ 人間は読む事が出来るが、AIには読めない敵対的サンプル
✔️ 機械学習モデルの正解率を大幅に低下させる事が出来る
✔️ データ増強と、モデルの頑健性を向上させる事も出来る
Mischief: A Simple Black-Box Attack Against Transformer Architectures
written by Adrian de Wynter
(Submitted on 16 Oct 2020)
Comments: Accepted at arXiv
Subjects: Computation and Language (cs.CL); Cryptography and Security (cs.CR); Machine Learning (cs.LG)![]()
この けんゅきう は じんうこのちう には わかならい けど
にんんげ には よむとこが できる ぶんょしう を つっかて
じこんうちのう を だそまう という あでいあ に もづといて います
続きを読むには
(2340文字画像6枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー