免責事項: 私はここで絶対に主観的にニュースを収集します。
ニュースの一部は私だけのニュースであり、長い間登場していた可能性があります。私はちょうど今それらに気づきました。
私はこのニュースに私の解説を添えて、このニュースが私にとって興味深い理由を述べています。
HugginfaceのTransformersは、NLP(自然言語処理)セクションの既製モデルのメインリポジトリになりつつあるようです。
…….. Google . Google, TensorFlow Hub, , . Google . NLP, Microsoft Facebook, . . . , PyTorch, TensorFlow. , , . .
sktime - time series. time series forecasting , . Facebook Prophet Amazon DeepAR . , sktime, PyTorch Forecasting, Amazon GluonTS. sktime , open source .
GoogleはSMITHモデルで興味深い主張をしました。NLPの前のリーダーはBERTです。著者によると、SMITHを使用すると、BERTの4倍の長さのテキストを操作できます(2Kトークン対0.5K)。著者は、モデルの設計とトレーニングにいくつかのトリックを追加しました。これらの変更は根本的な違いをもたらさないようです。同様のトリックは、他の研究者にも多数見られます。Googleはリソースに制限がなく、多くの同様のモデルを最先端のレベルにトレーニングできます。