Mischief : Transformerモデルを単純な "いたずら" 攻撃によって騙す
3つの要点
✔️ 人間は読む事が出来るが、AIには読めない敵対的サンプル
✔️ 機械学習モデルの正解率を大幅に低下させる事が出来る
✔️ データ増強と、モデルの頑健性を向上させる事も出来る
Mischief: A Simple Black-Box Attack Against Transformer Architectures
written by Adrian de Wynter
(Submitted on 16 Oct 2020)
Comments: Accepted at arXiv
Subjects: Computation and Language (cs.CL); Cryptography and Security (cs.CR); Machine Learning (cs.LG)
この けんゅきう は じんうこのちう には わかならい けど
にんんげ には よむとこが できる ぶんょしう を つっかて
じこんうちのう を だそまう という あでいあ に もづといて います
続きを読むには
(2340文字画像6枚)AI-SCHOLARに
登録いただく必要があります。
この記事に関するカテゴリー