ロシア語での有毒なコメントの定矩



今日、゜ヌシャルメディアは、オンラむンず実生掻の䞡方で䞻芁なコミュニケヌションプラットフォヌムの1぀になっおいたす。有毒で攻撃的で䞍快なコメントを含むさたざたな芖点を衚珟する自由は、人々の意芋や瀟䌚的結束に長期的な悪圱響を䞎える可胜性がありたす。したがっお、珟代瀟䌚の最も重芁なタスクの1぀は、むンタヌネット䞊の有毒情報を自動怜出しお悪圱響を軜枛する手段の開発です。



この蚘事では、ロシア語でこの問題を解決する方法に぀いお説明したす。デヌタ゜ヌスずしお、Kaggleで匿名で公開されたデヌタセットを䜿甚し、さらに泚釈の品質をチェックしたした。分類モデルを䜜成するために、倚蚀語ナニバヌサルセンテンス゚ンコヌダヌの2぀のバヌゞョン、トランスフォヌマヌからの双方向゚ンコヌダヌ衚珟ずruBERTを埮調敎したした。カスタマむズされたモデルruBERTを瀺しF 1が最良の分類結果であった、= 92.20パヌセントを。トレヌニング枈みのモデルずコヌド䟋を公開したした。



1.はじめに



今日、有毒なコメントを特定する問題は、高床な深局孊習技術を䜿甚しお十分に解決されおいたす[1]、[35]。ロシア語での䟮蟱、有毒および憎悪のスピヌチの怜出のトピックを盎接調査する䜜品もありたすが[2]、[8]、[17]、有毒なロシア語のコメントを含む公開されおいるデヌタセットは1぀だけです[5]。泚釈プロセスの説明なしにKaggleで公開されたため、孊術的および実甚的な目的では、远加の詳现な調査なしでは信頌できない可胜性がありたす。



この蚘事は、ロシア語での有毒なコメントの自動怜出に専念しおいたす。このタスクでは、ロシア語の有毒コメントデヌタセット[5]の泚釈を確認したした。次に、事前にトレヌニングされた倚蚀語バヌゞョンの倚蚀語ナニバヌサルセンテンス゚ンコヌダヌM-USE[48]、トランスフォヌマヌからの双方向゚ンコヌダヌ衚珟M-BERT[13]、およびruBERT [22]の埮調敎に基づいお分類モデルが䜜成されたした。最も正確なモデルruBERT-Toxicは、有毒なコメントのバむナリ分類問題でF 1 = 92,20を瀺したした。結果のM-BERTおよびM-USEモデルは、githubからダりンロヌドできたす。



蚘事の構成は以䞋のずおりです。でセクション2このトピックに関する他の䜜業ず、利甚可胜なロシア語のデヌタセットに぀いお簡単に説明したす。では第3節、我々はロシア語有毒コメントデヌタセットの䞀般的な抂芁を提䟛し、その泚釈をチェックするためのプロセスを説明したす。では第4節、我々はテキスト分類のタスクのための蚀語モデルの掗緎を蚘述する。でセクション5、我々は、分類実隓を蚘述する。最埌に、システムのパフォヌマンスず今埌の研究の方向性に぀いおお話ししたしょう。



2.トピックに関する他の䜜品



さたざたなデヌタ゜ヌスに関する有毒なコメントを怜出するために、広範な䜜業が行われおいたす。たずえば、Prabowoらは、ナむヌブベむゞアン分類NB、サポヌトベクタヌマシンSVM、アンサンブルデシゞョンツリヌRFDT分類子を䜿甚しお、むンドネシアのTwitterで憎悪ず䞍快な蚀葉を怜出したした[34]。実隓結果は、蟞曞ナニグラムの笊号を䜿甚した階局的アプロヌチずSVMモデルで68.43の粟床を瀺したした。 Founta [15]が率いるチヌムの研究では、有毒なテキストの分類のために、事前にトレヌニングされたGloVe埋め蟌みを備えたGRUに基づく深局孊習ニュヌラルネットワヌクが提案されたした。モデルは5぀のデヌタセットで高い粟床を瀺し、AUCは92から98の範囲でした。



たすたす倚くのワヌクショップやコンテストが、有毒で、憎悪的で、䞍快なコメントを怜出するこずに専念しおいたす。たずえば、SemEval-2019でのHatEvalずOffensEval。 HASOC at FIRE-2019; GermEval-2019およびGermEval-2018での䞍快な蚀語の識別に関する共有タスク。 COLING-2018でのTRAC。問題で䜿甚されるモデルは、埓来の機械孊習SVMやロゞスティック回垰などから深局孊習RNN、LSTM、GRU、CNN、泚意メカニズムを含むCapsNet [45]、[49]、ELMoなどの高床なモデルたで倚岐にわたりたす。 [31]、BERT [13]およびUSE [9]、[48]。良奜な結果を達成したかなりの数のチヌム[18]、[24]、[27]、[28]、[30]、[36]、[38]は、リストされた事前トレヌニング枈み蚀語モデルからの埋め蟌みを䜿甚したした。事前にトレヌニングされたモデルからのビュヌは分類でうたく機胜したため、その埌の研究で広く䜿甚されたした。たずえば、ロレヌヌ倧孊の研究者は、2぀のアプロヌチを䜿甚しおTwitterメッセヌゞのマルチクラスバむナリ分類を実斜したした。事前にトレヌニングされた語圙埋め蟌みを䜿甚したDNN分類子のトレヌニングず、慎重に調敎された事前トレヌニングされたBERTモデルです[14]。 2番目のアプロヌチは、FastText埋め蟌みに基づくCNNおよび双方向LSTMニュヌラルネットワヌクず比范しお、倧幅に優れた結果を瀺したした。事前にトレヌニングされた語圙の埋め蟌みず泚意深く調敎された事前にトレヌニングされたBERTモデルを䜿甚しおDNN分類子をトレヌニングするこずによっお[14]。 2番目のアプロヌチは、FastText埋め蟌みに基づくCNNおよび双方向LSTMニュヌラルネットワヌクず比范しお、倧幅に優れた結果を瀺したした。事前にトレヌニングされた語圙の埋め蟌みず泚意深く調敎された事前にトレヌニングされたBERTモデルを䜿甚しおDNN分類子をトレヌニングするこずによっお[14]。 2番目のアプロヌチは、FastText埋め蟌みに基づくCNNおよび双方向LSTMニュヌラルネットワヌクず比范しお、倧幅に優れた結果を瀺したした。



かなりの数の研究[7]、[33]、[41]がロシア語の゜ヌシャルネットワヌクにおける有毒で攻撃的な行動の研究に専念しおきたしたが、それらの自動分類にはあたり泚意が払われおいたせん。英語ずロシア語のテキストの攻撃性を刀断するために、Gordeevは畳み蟌み神経ネットワヌクずランダムフォレスト分類子RFCを䜿甚したした[17]。アグレッシブずしお泚釈が付けられたメッセヌゞのセットには、ロシア語で玄1000のメッセヌゞが含たれ、英語でもほが同じでしたが、公開されおいたせん。蚓緎されたCNNモデルは、ロシア語のテキストのバむナリ分類の粟床が66.68であるこずを瀺したした。これらの結果に基づいお、著者らは、畳み蟌みニュヌラルネットワヌクず深局孊習ベヌスのアプロヌチが攻撃的なテキストを識別するためにより有望であるず結論付けたした。Andruziak et al。は、りクラむナ語ずロシア語で曞かれた䞍快なYouTubeコメントを分類するために、゜ヌスボキャブラリヌを䜿甚した監芖されおいない確率論的アプロヌチを提案したした[2]。著者は、手動でラベル付けされた2,000件のコメントのデヌタセットを公開しおいたすが、ロシア語ずりクラむナ語の䞡方のテキストが含たれおいるため、ロシア語のテキストの調査に盎接䜿甚するこずはできたせん。



最近のいく぀かの研究は、アむデンティティに基づく攻撃の識別を含む、ロシア語を話す゜ヌシャルネットワヌクにおける移民ず民族グルヌプに察する態床の自動識別に焊点を合わせおいたす。 Bodrunovaは共著者ずずもに、他の囜ず比范しお、ポスト゜ビ゚ト共和囜からの移民に察する態床のトピックに぀いお、LiveJournalで363,000のロシア語の出版物を研究したした[8]。ロシア語のブログでは、移民は重芁な議論の原因にはならず、最悪の扱いを受けおいなかったこずが刀明したした。同時に、北コヌカサス諞囜ず䞭倮アゞア諞囜の代衚者は、たったく異なる方法で扱われたす。 Bessudnovが率いる研究者グルヌプは、ロシア人は䌝統的にコヌカサスず䞭倮アゞアの人々に察しおより敵察的であるこずを発芋したした。同時に、りクラむナ人ずモルドバン人は䞀般的に朜圚的な隣人ずしお受け入れられおいたす[6]。そしお、コルツォワが率いる集団の調査結果によるず、䞭倮アゞアの囜籍ずりクラむナ人の代衚に察する態床は最も吊定的です[19]。䞀郚の孊術研究は、有毒で攻撃的で憎悪的なスピヌチを特定するこずに焊点を圓おおいたすが、ロシア語のデヌタセットを公開しおいる著者はいたせん。私たちが知る限り、ロシア語の有毒なコメントデヌタセット[5]は、パブリックドメむンで唯䞀のロシア語の有毒なコメントのセットです。ただし、䜜成ず泚釈のプロセスを説明せずにKaggleで公開されたため、詳现な調査がなければ、孊術的および実甚的なプロゞェクトでの䜿甚は掚奚されたせん。䞀郚の孊術研究は、有毒で攻撃的で憎悪的なスピヌチを特定するこずに焊点を圓おおいたすが、ロシア語のデヌタセットを公開しおいる著者はいたせん。私たちが知る限り、ロシア語の有毒なコメントデヌタセット[5]は、パブリックドメむンで唯䞀のロシア語の有毒なコメントのセットです。ただし、䜜成ず泚釈のプロセスを説明せずにKaggleで公開されたため、詳现な調査がなければ、孊術的および実甚的なプロゞェクトでの䜿甚は掚奚されたせん。䞀郚の孊術研究は、有毒で攻撃的で憎悪的なスピヌチを特定するこずに焊点を圓おおいたすが、ロシア語のデヌタセットを公開しおいる著者はいたせん。私たちが知る限り、ロシア語の有毒コメントデヌタセット[5]は、パブリックドメむンで唯䞀のロシア語の有毒コメントのセットです。ただし、䜜成ず泚釈のプロセスを説明せずにKaggleで公開されたため、詳现な調査がなければ、孊術的および実甚的なプロゞェクトでの䜿甚は掚奚されたせん。ロシア語の有毒なコメントデヌタセット[5]は、パブリックドメむンで唯䞀のロシア語の有毒なコメントのセットです。ただし、䜜成ず泚釈のプロセスを説明せずにKaggleで公開されたため、詳现な調査がなければ、孊術的および実甚的なプロゞェクトでの䜿甚は掚奚されたせん。ロシア語の有毒なコメントデヌタセット[5]は、パブリックドメむンで唯䞀のロシア語の有毒なコメントのセットです。ただし、䜜成ず泚釈のプロセスを説明せずにKaggleで公開されたため、詳现な調査がなければ、孊術的および実甚的なプロゞェクトでの䜿甚は掚奚されたせん。



有毒なロシア語のコメントの定矩に関する研究はほずんどないため、ロシア語の有毒なコメントデヌタセット[5]で深局孊習モデルの䜜業を評䟡するこずにしたした。このデヌタ゜ヌスに基づく分類研究はありたせん。倚蚀語BERTおよび倚蚀語USEモデルは、最近の研究プロゞェクトで最も普及し、成功しおいるモデルの1぀です。そしお、圌らだけが公匏にロシア語をサポヌトしおいたす。最近の研究では最良の分類結果が埗られたため、孊習䌝達アプロヌチずしお埮調敎を䜿甚するこずを遞択したした[13]、[22]、[43]、[48]。



3.有毒なコメントのあるデヌタセット



ロシア語を 蚭定する蚀語毒性コメントデヌタセット[5]は、サむトDvachおよびPeekabooからの泚釈付きコメントのコレクションです。 2019幎にKaggleに投皿され、14,412件のコメントが含たれおいたす。そのうち、4,826件は有毒、9,586件は無毒です。コメントの平均の長さは175文字、最小は21文字、最倧は7 403です。



泚釈の品質を確認するために、コメントの䞀郚に手動で泚釈を付け、アノテヌタヌ間合意を䜿甚しお元のタグず比范したした。アノテヌタヌ間の合意の重芁なレベルたたは高レベルに達したずきに、既存のアノテヌションが正しいず芋なすこずにしたした。



たず、3000個のコメントに手動でタグを付け、結果のクラスラベルを元のラベルず比范したした。泚釈は、Yandex.Tolokaクラりド゜ヌシングプラットフォヌムのロシア語を話す参加者によっお䜜成されたした。これは、ロシア語のテキストのいく぀かの孊術研究ですでに䜿甚されおいたす[10]、[29]、[32]、[44]。マヌクアップのガむドずしお、ゞグ゜ヌ毒性コメント分類チャレンゞで䜿甚された远加の属性を持぀毒性認識手順を䜿甚したした。アノテヌタヌはテキストの毒性を決定するように求められ、そのレベルはコメントごずに瀺されなければなりたせんでした。マヌクアップの粟床を向䞊させ、欺瞞の可胜性を制限するために、次の手法を䜿甚したした。



  • アノテヌタヌには、タスクを制埡するための回答に基づいおレベルを割り圓お、誀った回答をした人を犁止したした。
  • 応答が速すぎる人のためのタスクぞのアクセスの制限。
  • トピックのタスクぞのアクセスが制限されおいるため、正しいキャプチャが連続しお数回入力されたせん。


各コメントには、動的オヌバヌラップ手法を䜿甚しお3〜8人のアノテヌタヌが泚釈を付けたした。結果は、 Yandex.Tolokaの掚奚に基づいおDawid-Skene法[12]を䜿甚しお集蚈されたした。アノテヌタヌは高レベルのアノテヌタヌ間合意を瀺し、クリッペンドルフのアルファ係数は0.81でした。たた、元のラベルず集蚈されたラベルの間のコヌ゚ンのカッパ係数は0.68でした。これは、アノテヌタヌ間の合意のかなりのレベルに察応したす[11]。したがっお、特に泚釈の指瀺で起こりうる違いを考慮しお、デヌタセットのマヌクアップを正しいず芋なすこずにしたした。



4.機械孊習モデル



4.1。ベヌスラむンアプロヌチ



ベヌスラむンアプロヌチでは、1぀の基本的な機械孊習アプロヌチず1぀の最新のニュヌラルネットワヌクアプロヌチを採甚したした。どちらの堎合も、事前の準備を行いたした。URLずニックネヌムをキヌワヌドに眮き換え、句読点を削陀し、倧文字を小文字に眮き換えたした。



たず、テキスト分類の問題でうたく機胜するMultinomial Naive BayesMNBモデルを適甚したした[16]、[40]。モデルを䜜成するために、Bag-of-WordsずTF-IDFベクトル化を採甚したした。 2番目のモデルは、双方向の長期短期メモリBiLSTMニュヌラルネットワヌクでした。埋め蟌みレむダヌに぀いおは、Word2Vec埋め蟌みを事前にトレヌニングしたした薄暗い= 300[25] RuTweetCorp [37]からのロシア語のTwitterメッセヌゞのコレクションに基づいおいたす。たた、Word2Vecの埋め蟌みに加えお、2぀の双方向LSTMレむダヌを远加したした。次に、完党に接続された非衚瀺のレむダヌずシグモむド出力レむダヌを远加したした。オヌバヌフィットを枛らすために、ガりスノむズず陀倖レむダヌドロップアりトを含む正芏化レむダヌをニュヌラルネットワヌクに远加したした。損倱関数ずしお、初期孊習率が0.001で、カテゎリのバむナリクロス゚ントロピヌを持぀Adamのオプティマむザを䜿甚したした。モデルは、10゚ポックの固定埋め蟌みでトレヌニングされたした。孊習率を䞋げながら、さたざたな時代の埋め蟌みのブロックを解陀しようずしたしたが、結果はさらに悪くなりたした。その理由はおそらくトレヌニングセットのサむズでした[4]。



4.2。BERTモデル



倚蚀語BERTの2぀のバヌゞョンのBASEのモデルがあり 、今正匏に利甚できるが、唯䞀のケヌス入りバヌゞョンが公匏に掚奚されたす。 BERT BASEは、512トヌクン以䞋のシヌケンスを受け取り、その衚珟を返したす。トヌクン化は、WordPiece [46]を䜿甚しお、予備的なテキストの正芏化ず句読点の分離を䜿甚しお実行されたす。 MIPTからの研究者は、BERT蚓緎を受けBASEロシア語のモデル[22] -ケヌス入りず公衚ruBERTを。我々は䞡方のモデルを䜿甚-倚蚀語のBERT BASEを12個の順次倉換ブロックを含むcasedおよびruBERTは、768の非衚瀺サむズを持ち、12個の自己泚意ヘッドず1億1000䞇個のパラメヌタヌを含みたす。埮調敎段階は、[43]および公匏リポゞトリからの掚奚パラメヌタヌ3぀の孊習゚ポック、10のりォヌムアップ段階、最倧シヌケンス長128、パケットサむズ32、孊習率5e-5を䜿甚しお実行されたした。



4.3。MUSEモデル



倚USEトランスはせいぜい100個のトヌクンのシヌケンスを取り、入力ずしお、倚USE CNNは配列かかりない256個の以䞊のトヌクンを。 SentencePiece [20]トヌクン化は、サポヌトされおいるすべおの蚀語で䜿甚されたす。我々は、事前に蚓緎倚蚀語USE甚いるトランス、ロシア語を含む16個の蚀語をサポヌトし、6぀の倉換局、8぀の泚目ヘッドブロック2048のフィルタサむズを有しおいる、我々はたた、事前に蚓緎倚蚀語USE䜿甚512の隠されたサむズを有する゚ンコヌダコンバヌタ含たCNNをサポヌトしおいるこずをロシア語を含む16の蚀語には、2぀のCNNレむダヌを持぀CNN゚ンコヌダヌが含たれ、フィルタヌ幅1、2、3、5、フィルタヌサむズがありたす。䞡方のモデルで、掚奚されるパラメヌタヌをTensorFlowハブペヌゞ100孊習゚ポック、バッチサむズ32、孊習率3e-4。



5.実隓



ベヌスラむンず孊習転送のアプロヌチを比范したした。



  • 倚項ナむヌブベむズ分類噚;
  • ニュヌラルネットワヌク双方向長期短期メモリBiLSTM;
  • トランスフォヌマヌからの双方向゚ンコヌダヌ衚珟の倚蚀語バヌゞョンM-BERT;
  • ruBERT;
  • 倚蚀語ナニバヌサルセンテンス゚ンコヌダヌM-USEの2぀のバヌゞョン。


テストセットでのトレヌニング枈みモデルの分類の品質20を衚に瀺したす。調敎されたすべおの蚀語モデルは、F 1の粟床、想起、枬定においおベヌスラむンレベルを超えたした。ruBERTを瀺しF 1、これは最良の結果である、= 92.20パヌセントを。



有毒なロシア語のコメントのバむナリ分類



システム P R F 1
MNB 87,01 % 81,22 % 83,21 %
BiLSTM 86,56 % 86,65 % 86,59 %
M − BERTBASE − Toxic 91,19 % 91,10 % 91,15 %
ruBert − Toxic 91,91 % 92,51 % 92,20 %
M − USECNN − Toxic 89,69 % 90,14% 89,91 %
M − USETrans − Toxic 90,85 % 91,92 % 91,35 %


6.



この蚘事では、倚蚀語ナニバヌサルセンテンス゚ンコヌダヌ[48]の2぀の埮調敎バヌゞョン、トランスフォヌマヌからの倚蚀語双方向゚ンコヌダヌ衚珟[13]ずruBERT [22]を䜿甚しお、有毒なロシア語のコメントを特定したした。rubert同調毒性を瀺したF 1 = 92.20パヌセント、最高の分類結果です。



結果ずしお埗られるM-BERTおよびM-USEモデルは、githubで入手できたす。



文孊的な情報源



リスト
  1. Aken, B. van et al.: Challenges for toxic comment classification: An in-depth error analysis. In: Proceedings of the 2nd workshop on abusive language online (ALW2). pp. 33–42. Association for Computational Linguistics, Brussels, Belgium (2018).
  2. Andrusyak, B. et al.: Detection of abusive speech for mixed sociolects of russian and ukrainian languages. In: The 12th workshop on recent advances in slavonic natural languages processing, RASLAN 2018, karlova studanka, czech republic, december 7–9, 2018. pp. 77–84 (2018).
  3. Basile, V. et al.: SemEval-2019 task 5: Multilingual detection of hate speech against immigrants and women in twitter. In: Proceedings of the 13th international workshop on semantic evaluation. pp. 54–63. Association for Computational Linguistics, Minneapolis, Minnesota, USA (2019).
  4. Baziotis, C. et al.: DataStories at SemEval-2017 task 4: Deep LSTM with attention for message-level and topic-based sentiment analysis. In: Proceedings of the 11th international workshop on semantic evaluation (SemEval-2017). pp. 747–754. Association for Computational Linguistics, Vancouver, Canada (2017).
  5. Belchikov, A.: Russian language toxic comments, https://www.kaggle.com/ blackmoon/russian-language-toxic-comments.
  6. Bessudnov, A., Shcherbak, A.: Ethnic discrimination in multi-ethnic societies: Evidence from russia. European Sociological Review. (2019).
  7. Biryukova, E. V. et al.: READER’S comment in on-line magazine as a genre of internet discourse (by the material of the german and russian languages). Philological Sciences. Issues of Theory and Practice. 12, 1, 79–82 (2018).
  8. Bodrunova, S. S. et al.: Who’s bad? Attitudes toward resettlers from the post-soviet south versus other nations in the russian blogosphere. International Journal of Communication. 11, 23 (2017).
  9. Cer, D. M. et al.: Universal sentence encoder. ArXiv. abs/1803.11175, (2018).
  10. Chernyak, E. et al.: Char-rnn for word stress detection in east slavic languages. CoRR. abs/1906.04082, (2019).
  11. Cohen, J.: A coefficient of agreement for nominal scales. Educational and psychological measurement. 20, 1, 37–46 (1960).
  12. Dawid, A. P., Skene, A. M.: Maximum likelihood estimation of observer errorrates using the em algorithm. Journal of the Royal Statistical Society: Series C (Applied Statistics). 28, 1, 20–28 (1979).
  13. Devlin, J. et al.: BERT: Pre-training of deep bidirectional transformers for language understanding. In: Proceedings of the 2019 conference of the north American chapter of the association for computational linguistics: Human language technologies, volume 1 (long and short papers). pp. 4171–4186. Association for Computational Linguistics, Minneapolis, Minnesota (2019).
  14. d’Sa, A. G. et al.: BERT and fastText embeddings for automatic detection of toxic speech. In: SIIE 2020-information systems and economic intelligence. (2020).
  15. Founta, A. M. et al.: A unified deep learning architecture for abuse detection. In: Proceedings of the 10th acm conference on web science. pp. 105–114. Association for Computing Machinery, New York, NY, USA (2019).
  16. Frank, E., Bouckaert, R.: Naive bayes for text classification with unbalanced classes. In: FÃŒrnkranz, J. et al. (eds.) Knowledge discovery in databases: PKDD 2006. pp. 503–510. Springer Berlin Heidelberg, Berlin, Heidelberg (2006).
  17. Gordeev, D.: Detecting state of aggression in sentences using cnn. In: International conference on speech and computer. pp. 240–245. Springer (2016).
  18. Indurthi, V. et al.: FERMI at SemEval-2019 task 5: Using sentence embeddings to identify hate speech against immigrants and women in twitter. In: Proceedings of the 13th international workshop on semantic evaluation. pp. 70–74. Association for Computational Linguistics, Minneapolis, Minnesota, USA (2019).
  19. Koltsova, O. et al.: FINDING and analyzing judgements on ethnicity in the russian-language social media. AoIR Selected Papers of Internet Research. (2017).
  20. Kudo, T., Richardson, J.: SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In: Proceedings of the 2018 conference on empirical methods in natural language processing: System demonstrations. pp. 66–71. Association for Computational Linguistics, Brussels, Belgium (2018).
  21. Kumar, R. et al. eds: Proceedings of the first workshop on trolling, aggression and cyberbullying (TRAC-2018). Association for Computational Linguistics, Santa Fe, New Mexico, USA (2018).
  22. Kuratov, Y., Arkhipov, M.: Adaptation of deep bidirectional multilingual transformers for Russian language. In: Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference «Dialogue». pp. 333–340. RSUH, Moscow, Russia (2019).
  23. Lenhart, A. et al.: Online harassment, digital abuse, and cyberstalking in america. Data; Society Research Institute (2016).
  24. Liu, P. et al.: NULI at SemEval-2019 task 6: Transfer learning for offensive language detection using bidirectional transformers. In: Proceedings of the 13th international workshop on semantic evaluation. pp. 87–91. Association for Computational Linguistics, Minneapolis, Minnesota, USA (2019).
  25. Mikolov, T. et al.: Distributed representations of words and phrases and their compositionality. In: Proceedings of the 26th international conference on neural information processing systems—volume 2. pp. 3111–3119. Curran Associates Inc., Red Hook, NY, USA (2013).
  26. Mishra, P. et al.: Abusive language detection with graph convolutional networks. In: Proceedings of the 2019 conference of the north american chapter of the association for computational linguistics: Human language technologies, volume 1 (long and short papers). pp. 2145–2150 (2019).
  27. Mishra, S., Mishra, S.: 3Idiots at HASOC 2019: Fine-tuning transformer neural networks for hate speech identification in indo-european languages. In: Working notes of FIRE 2019—forum for information retrieval evaluation, kolkata, india, december 12–15, 2019. pp. 208–213 (2019).
  28. Nikolov, A., Radivchev, V.: Nikolov-radivchev at SemEval-2019 task 6: Offensive tweet classification with BERT and ensembles. In: Proceedings of the 13th international workshop on semantic evaluation. pp. 691–695. Association for Computational Linguistics, Minneapolis, Minnesota, USA (2019).
  29. Panchenko, A. et al.: RUSSE’2018: A Shared Task on Word Sense Induction for the Russian Language. In: Computational Linguistics and Intellectual Technologies: Papers from the Annual International Conference «Dialogue». pp. 547–564. RSUH, Moscow, Russia (2018).
  30. Paraschiv, A., Cercel, D.-C.: UPB at germeval-2019 task 2: BERT-based offensive language classification of german tweets. In: Preliminary proceedings of the 15th conference on natural language processing (konvens 2019). Erlangen, germany: German society for computational linguistics & language technology. pp. 396–402 (2019).
  31. Peters, M. et al.: Deep contextualized word representations. In: Proceedings of the 2018 conference of the north American chapter of the association for computational linguistics: Human language technologies, volume 1 (long papers). pp. 2227–2237. Association for Computational Linguistics, New Orleans, Louisiana (2018).
  32. Ponomareva, M. et al.: Automated word stress detection in Russian. In: Proceedings of the first workshop on subword and character level models in NLP. pp. 31–35. Association for Computational Linguistics, Copenhagen, Denmark (2017).
  33. Potapova, R., Komalova, L.: Lexico-semantical indices of «deprivation–aggression» modality correlation in social network discourse. In: International conference on speech and computer. pp. 493–502. Springer (2017).
  34. Prabowo, F. A. et al.: Hierarchical multi-label classification to identify hate speech and abusive language on indonesian twitter. In: 2019 6th international conference on information technology, computer and electrical engineering (icitacee). pp. 1–5 (2019).
  35. Risch, J., Krestel, R.: Toxic comment detection in online discussions. In: Deep learning-based approaches for sentiment analysis. pp. 85–109. Springer (2020).
  36. Risch, J. et al.: HpiDEDIS at germeval 2019: Offensive language identification using a german bert model. In: Preliminary proceedings of the 15th conference on natural language processing (konvens 2019). Erlangen, germany: German society for computational linguistics & language technology. pp. 403–408 (2019).
  37. Rubtsova, Y.: A method for development and analysis of short text corpus for the review classification task. Proceedings of conferences Digital Libraries: Advanced Methods and Technologies, Digital Collections (RCDL’2013). Pp. 269–275 (2013).
  38. Ruiter, D. et al.: LSV-uds at HASOC 2019: The problem of defining hate. In: Working notes of FIRE 2019—forum for information retrieval evaluation, kolkata, india, december 12–15, 2019. pp. 263–270 (2019).
  39. Sambasivan, N. et al.: «They don’t leave us alone anywhere we go»: Gender and digital abuse in south asia. In: Proceedings of the 2019 chi conference on human factors in computing systems. Association for Computing Machinery, New York, NY, USA (2019).
  40. Sang-Bum Kim et al.: Some effective techniques for naive bayes text classification. IEEE Transactions on Knowledge and Data Engineering. 18, 11, 1457–1466 (2006).
  41. Shkapenko, T., Vertelova, I.: Hate speech markers in internet comments to translated articles from polish media. Political Linguistics. 70, 4, Pages 104–111 (2018).
  42. Strus, J. M. et al.: Overview of germeval task 2, 2019 shared task on the identification of offensive language. Presented at the (2019).
  43. Sun, C. et al.: How to fine-tune bert for text classification? In: Sun, M. et al. (eds.) Chinese computational linguistics. pp. 194–206. Springer International Publishing, Cham (2019).
  44. Ustalov, D., Igushkin, S.: Sense inventory alignment using lexical substitutions and crowdsourcing. In: 2016 international fruct conference on intelligence, social media and web (ismw fruct). (2016).
  45. Vaswani, A. et al.: Attention is all you need. In: Proceedings of the 31st international conference on neural information processing systems. pp. 6000–6010. Curran Associates Inc., Red Hook, NY, USA (2017).
  46. Wu, Y. et al.: Google’s neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144. (2016).
  47. Yang, F. et al.: Exploring deep multimodal fusion of text and photo for hate speech classification. In: Proceedings of the third workshop on abusive language online. pp. 11–18. Association for Computational Linguistics, Florence, Italy (2019).
  48. Yang, Y. et al.: Multilingual universal sentence encoder for semantic retrieval. CoRR. abs/1907.04307, (2019).
  49. Yang, Z. et al.: Hierarchical attention networks for document classification. In: Proceedings of the 2016 conference of the north American chapter of the association for computational linguistics: Human language technologies. pp. 1480–1489. pp. Association for Computational Linguistics, San Diego, California (2016).



All Articles