【基礎から学ぶ】自然言語処理から大規模言語モデルLLMへ~Pythonで実践してみよう
ChatGPT/生成AIの基本技術でもある「大規模言語モデル(LLM)」について学び、これからのAI社会における基礎を身につけましょう!PythonとGoogle ColabでLLMのファインチューニングに挑戦します
Description
本コースは、自然言語処理の基礎から大規模言語処理LLM時代への流れを説明しつつ、LLMの事前学習済みモデルを使用し、ファインチューニングの演習までを行うコースとなっています。
大規模言語モデルLLMはChatGPTを始めとして、今ではさまざまな場面で使われる技術になってきましたが、実際にその裏側の技術についてはよくわからないという方も多いかと思います。
なので、本コースを通じて、大規模言語モデルとはどのようなものなのか、今までの自然言語処理からどのように発展してきたのか、どのように大規模言語モデルをファインチューニングするのか、Pythonで実践することでを学び、これからの加速する時代に備えていきましょう!
目次
自然言語処理の基礎
ディープラーニングの基礎
Transformer
大規模言語モデル(LLM)
PythonでLLMを使う演習
事前学習済みモデルの使用
事前学習済みモデルのファインチューニング
独自データの使用方法
対象
ChatGPTなどの生成AIに興味はあるが、その裏側の技術はよくわからないという人
大規模言語モデルを使ってみたい人
簡単に事前学習済みのファインチューニングにチャレンジしたい人
注意
すでに業務などで大規模言語モデルを扱っている方には向きません(LLM初心者向け)
Google Colaboratoryの無料アカウントを使って演習を行っています。もし有料アカウントや、自前のGPU環境がある方はそちらをお使いください
ディープラーニングの基礎パートは他コースでも使用している動画になりますので、ご了承ください
What You Will Learn!
- 自然言語処理の基本
- 機械学習・ディープラーニングの基本
- 単語分散表現
- 畳み込みニューラルネットワークCNN
- RNN, LSTM
- エンコーダ, デコーダ
- Transformerの構造
- 大規模言語モデルLLMとは
- 事前学習済みLLMモデルを使ってみよう
- 事前学習済みLLMモデルのファインチューニング
Who Should Attend!
- 大規模言語モデルLLMというワードは知っているが実際にはよくわからないという方
- ChatGPTなどの生成AIの基礎となるLLMの技術に興味がある方
- LLMの事前学習済みモデルを使ってみたい方、ファインチューニングしてみたい方