転移学習とは?少ないデータで高精度モデルを構築する方法

AIを知りたい
「転移学習」を使えば少ないデータでも高精度なモデルが作れると聞いたのですが、本当ですか?

AIエンジニア
はい、本当です。転移学習は大量のデータで学習済みのモデルの知識を流用して、別のタスクに適用する手法です。ゼロから学習するよりはるかに少ないデータで高い精度を出せます。現代のAI開発では必須のテクニックです。

AIを知りたい
イメージが湧かないのですが、例を教えてもらえますか?

AIエンジニア
例えば猫と犬の分類器を作りたいとします。ImageNet(1400万枚)で学習済みのResNetを使えば、猫犬の画像が100枚程度でも高精度な分類器が作れます。ResNetが既に「エッジ」「テクスチャ」「形状」などの視覚的特徴を学習済みなので、それを活かせるんです。
転移学習(Transfer Learning)とは、あるタスクで学習したモデルの知識を別のタスクに転用する機械学習の手法です。
大規模データで事前学習(Pre-training)されたモデルをベースに、少量のタスク固有データでファインチューニングすることで、データ不足の問題を解決します。画像認識のResNet、自然言語処理のBERT/GPTなど、現代のAIモデルの多くが転移学習に基づいています。
転移学習の2つのアプローチ

AIを知りたい
転移学習にはどんな方法がありますか?

AIエンジニア
大きく2つのアプローチがあります。特徴抽出(Feature Extraction)は学習済みモデルの重みを固定して、最後の分類層だけを新しいタスク用に差し替えて学習する方法です。ファインチューニングは学習済みモデルの重みも含めて全体を微調整する方法で、より高い精度が期待できます。

AIを知りたい
どちらを使えばいいですか?

AIエンジニア
データが少ない場合は特徴抽出が安全です。全体を学習するとデータが少なすぎて過学習するリスクがあります。データがある程度ある場合はファインチューニングの方が高い精度を出せます。まず特徴抽出で試して、データに余裕があればファインチューニングに進むのがおすすめです。
| アプローチ | データ量の目安 | 学習する層 | メリット |
|---|---|---|---|
| 特徴抽出 | 数十〜数百枚 | 最終層のみ | 過学習しにくい、学習が速い |
| ファインチューニング(一部) | 数百〜数千枚 | 後半の層 | バランスが良い |
| ファインチューニング(全体) | 数千枚以上 | 全層 | 最高精度の可能性 |
NLP分野の転移学習

AIを知りたい
自然言語処理でも転移学習は使えるんですか?

AIエンジニア
はい、むしろNLPこそ転移学習の恩恵が最も大きい分野です。BERTは大量のテキストで事前学習し、感情分析や質問応答などに転移学習します。GPTも同様に大規模テキストで事前学習し、様々なタスクに適用できます。これが「基盤モデル」と呼ばれる考え方です。

AIを知りたい
画像とNLPで転移学習の仕方は違いますか?

AIエンジニア
基本的な考え方は同じですが、NLPではプロンプトエンジニアリングやLoRAなど、より効率的な転移学習の手法が発展しています。特にLLMでは全パラメータの更新が現実的でないため、アダプター層の追加やプロンプトの工夫でタスクに適応させる手法が主流です。
まとめ
転移学習は少ないデータで高精度モデルを実現する最も実用的な手法です。ImageNetで学習済みのCNNや大規模テキストで学習済みのBERT/GPTなど、基盤モデルを活用することで開発コストとデータ量を大幅に削減できます。まず特徴抽出で試し、必要に応じてファインチューニングを行うのが効率的なアプローチです。
