ニューラル ネットワーク アーキテクチャの一種である Transformers は、ここ数年間、BERT など自然言語処理を中心とした技術に影響を与えてきました。従来自然言語処理で使われていたRNN(Recurrent Neural Network)モデルは、長い文章を正しく処理するのが難しい、大規模化が困難というような欠点がありました。Transformer を使うと、このような問題を克服し、文章をより自然に翻訳したり、生成できます。このセッションでは、この Transformer とは何か、どのように動作するのか説明します。