<< TOPへ
Classifying Cancer Stage with Open-Source Clinical Large Language Models*
・トレーニングデータなしでOSSのLLMでがんの病理データ解析をして、その有効性を図った研究。zero-shot chain-of-thoughtアプローチが有効だった。2024年。
・調べれば調べるほど、最近は事前の学習よりも、推論の力が重要であることを理解するのだけど、この研究も同様。すべて
・「スペルミスやフォーマットの問題に対処するための大規模な前処理は行っていない。」ってのがLLMの良いところだなぁ。
・コーパスってのは大量のテキストデータ。
・あとZero-shot Chain-of-ThoughtsとChain-of-Thoughtsの違いを以下にまとめた。
| 特徴 | Zero-shot Chain-of-Thought (ZSCoT) | Chain-of-Thought (CoT) |
|-------------------|---------------------------------------------|---------------------------------------------|
| **事前学習の必要性** | 事前学習不要(zero-shot) | 通常、事前学習が必要 |
| **用途** | 一般的な問題に対して即座に適用可能 | 特定の問題に対してカスタマイズされた学習が必要 |
| **パフォーマンス** | 事前学習なしで比較的高いパフォーマンスを実現 | 事前学習により最適化され、より高いパフォーマンスを期待 |
| **適用範囲** | 広範囲の問題に適用可能 | 特定の問題に最適化されたモデルに適用 |
| **入力の扱い** | 様々なタイプの問題を同じモデルで処理 | 問題に応じてモデルや入力の調整が必要 |
・ほか、Zero-shot Chain-of-Thoughtsは問題を直接解かせるのではなく、まず問題解決のための思考プロセスを生成させ、その後、その思考プロセスを使って最終的な解答を導き出させる。具体的には、以下のようなステップを踏みます:
- ステップ1では、問題の説明と「ステップバイステップで考えよう」というプロンプトをLLMに与えます。これにより、LLMは問題を解決するための推論プロセスを生成します。
例: "以下は癌患者の病理レポートです。このレポートを確認し、患者の癌のTNMステージを判定するために、ステップバイステップで考えてみましょう。"
- ステップ2では、ステップ1で生成された推論プロセスを新たなプロンプトとして与え、LLMに最終的な解答を生成させます。
例: "ステップ1で生成された推論を使って、このレポートのTNMステージを判定してください。"
Classifying Cancer Stage with Open-Source Clinical Large Language Models*
・トレーニングデータなしでOSSのLLMでがんの病理データ解析をして、その有効性を図った研究。zero-shot chain-of-thoughtアプローチが有効だった。2024年。
・調べれば調べるほど、最近は事前の学習よりも、推論の力が重要であることを理解するのだけど、この研究も同様。すべて
・「スペルミスやフォーマットの問題に対処するための大規模な前処理は行っていない。」ってのがLLMの良いところだなぁ。
・コーパスってのは大量のテキストデータ。
・あとZero-shot Chain-of-ThoughtsとChain-of-Thoughtsの違いを以下にまとめた。
| 特徴 | Zero-shot Chain-of-Thought (ZSCoT) | Chain-of-Thought (CoT) |
|-------------------|---------------------------------------------|---------------------------------------------|
| **事前学習の必要性** | 事前学習不要(zero-shot) | 通常、事前学習が必要 |
| **用途** | 一般的な問題に対して即座に適用可能 | 特定の問題に対してカスタマイズされた学習が必要 |
| **パフォーマンス** | 事前学習なしで比較的高いパフォーマンスを実現 | 事前学習により最適化され、より高いパフォーマンスを期待 |
| **適用範囲** | 広範囲の問題に適用可能 | 特定の問題に最適化されたモデルに適用 |
| **入力の扱い** | 様々なタイプの問題を同じモデルで処理 | 問題に応じてモデルや入力の調整が必要 |
・ほか、Zero-shot Chain-of-Thoughtsは問題を直接解かせるのではなく、まず問題解決のための思考プロセスを生成させ、その後、その思考プロセスを使って最終的な解答を導き出させる。具体的には、以下のようなステップを踏みます:
- ステップ1では、問題の説明と「ステップバイステップで考えよう」というプロンプトをLLMに与えます。これにより、LLMは問題を解決するための推論プロセスを生成します。
例: "以下は癌患者の病理レポートです。このレポートを確認し、患者の癌のTNMステージを判定するために、ステップバイステップで考えてみましょう。"
- ステップ2では、ステップ1で生成された推論プロセスを新たなプロンプトとして与え、LLMに最終的な解答を生成させます。
例: "ステップ1で生成された推論を使って、このレポートのTNMステージを判定してください。"
---
```mermaid
graph LR
A[はじめに] --> B(がん統計とその影響)
A --> C(がん治療の学際的性質)
A --> D(がん病期データの重要性)
A --> E(EHRからの病期データ抽出の課題)
A --> F(LLMsによる病期データ抽出改善の可能性)
B --> G[2023年、推定200万人ががんと診断された。]
B --> H[がんは2021年、2022年、2023年の米国における死因の第2位だった。]
C --> I[がん診断・治療・監視には複数の専門分野が関わる。]
C --> J[様々な医療提供者が大量の臨床データを生成する。]
D --> K[がん病期はがん治療計画の重要な情報である。]
D --> L[TNM病期分類は、がん情報を標準化された形式で提示できる。]
E --> M[EHRはがんデータの分析を容易にするが、病期情報の解析は困難。]
E --> N[病期情報は通常、構造化されていない自由記載テキストに含まれる。]
E --> O[NLPにはトレーニングデータセットが必要。]
F --> P[LLMsにより、がん病期抽出の改善と研究の加速が期待できる。]
F --> Q[本研究では、トレーニングデータなしでLLMsによるpTNM分類抽出を評価する。]
```