transformersはPythonのライブラリです。
githubを良く使います。
米国のHugging Face社が提供している、自然言語処理に特化したディープラーニングのフレームワーク。
ソースコードは全てGitHub上で公開されており、誰でも無料で使うことができる。TensorFlowとPyTorchの両方に対応しており、テキスト分類や質問応答などの自然言語処理のタスクをディープラーニングを使って解くことができる。
BERTなどの最先端のアルゴリズムに対応したアーキテクチャに加え、多言語、且つ、多様な事前学習モデルに対応しており、最先端のアルゴリズムを簡単に試すことができる。
テキスト生成、チャット
このtransformersを利用して自動で呟きたいと思います。
手順
transformersでテキストを生成し、Twitterボットで生成したテキストを投稿するための手順です。
その他どこで使いますか。
自然言語処理には他にどんなものがあるのでしょうか。transformersを使いテキストマイニングをする、とします。どこでテキストマイニングを使えば良いのでしょうか。
論文も読みます
今度論文も読むつもりなので、以下のリンクをつけておきます。
Transformerについて
Transformerとは、2017年に発表された“Attention Is All You Need”という自然言語処理に関する論文の中で初めて登場した深層学習モデルです。
BERTについて
BERTとは、Bidirectional Encoder Representations from Transformersを略した自然言語処理モデルであり、2018年10月にGoogle社のJacob Devlin氏らが発表したことで、大きな注目を集めました。日本語では「Transformerによる双方向のエンコード表現」と訳されています。
コメント