伝統中国医学知識検索と診断を支えるOpenTCM(OpenTCM: A GraphRAG-Empowered LLM-based System for Traditional Chinese Medicine Knowledge Retrieval and Diagnosis)

田中専務

拓海先生、最近社内で「伝統医学をAIで活かせる」って話が出てきましてね。ただ、古い文献ばかりで文字も難しい。実務で本当に使えるんでしょうか。

AIメンター拓海

素晴らしい着眼点ですね!大丈夫ですよ、伝統中国医学(TCM: Traditional Chinese Medicine、伝統中国医学)のような古典知識も、適切に構造化すれば実務で使えるんです。要点は三つです。データ化すること、誤答(ハルシネーション)を抑えること、計算コストを抑えることですよ。

田中専務

それは理屈としては分かりますが、実際には文字が古く、言い回しも違う。AIに読ませてもボロボロ間違えそうでして、そこが心配です。

AIメンター拓海

素晴らしい着眼点ですね!古典中国語のままだと確かにLLM(LLM: Large Language Model、大規模言語モデル)は混乱します。そこで知識を『知識グラフ(knowledge graph、KG、知識グラフ)』に整理し、GraphRAG(GraphRAG、グラフを用いたRAG)で参照させる方法が有効です。三点に整理すると、まずテキストを高精度に抽出すること、次に関係性を明示すること、最後に推論時の参照を効率化することです。

田中専務

GraphRAGというのは、要するに外部の知識を必要なときだけ繋ぐ。これって要するに、CPUやGPUをずっと回さずに済む、ということですか?

AIメンター拓海

その通りです!素晴らしい着眼点ですね。GraphRAGはRAG(RAG: Retrieval-Augmented Generation、検索増強生成)の一形態で、必要な事実や関係を外部グラフから引き出してLLMに渡す方式です。つまり、全データを常時学習させるのではなく、問い合わせに応じて参照するため、計算コストを抑えつつ信頼性を上げられるんですよ。

田中専務

現場に入れるときは、やっぱり信頼性と投資対効果が肝になります。誤診や間違った処方につながるリスクはどうやって避けるのですか。

AIメンター拓海

素晴らしい着眼点ですね。ここは重要です。まず知識ソースを専門家が検証して正典とすること、次に知識を関係ごとに構造化して参照元を明示すること、最後にLLMの回答に参照ノードを添えて信頼性の判断材料を提供すること、の三点でリスクを下げます。これなら現場の医師や薬剤師が最終判断をしやすくなりますよ。

田中専務

なるほど。導入の最初の一歩としては、どこから手を付ければいいですか。うちの現場はExcelが主体で、クラウドはまだ怖がる管理職も多いんです。

AIメンター拓海

大丈夫、一緒にやれば必ずできますよ。まずは小さなユースケースを一つ決めて、現場でよく使う問い合わせ(例えば処方候補の提示)だけを対象にします。次にそのドメインの専門家が核となる文献を選んで検証し、その文献だけで知識グラフを構築します。最後にオンプレミスか限定クラウドで試験運用して信頼性を示す、という三ステップです。

田中専務

なるほど、段階的にですね。それなら現場も受け入れやすそうです。これって要するに、古い文献を現代のデータ構造に落とし込んで、必要なときだけAIに見せるということですか?

AIメンター拓海

その通りです!素晴らしい着眼点ですね。要するに、古典をそのまま学習させるのではなく、意味と関係を抽出して知識グラフにすることで、LLMの出力を補強し、誤りを減らしながら運用コストも抑えられるのです。これなら経営判断もしやすくなりますよ。

田中専務

分かりました。最後に、自分の言葉で一度説明してみます。要するに、専門家が吟味した古典資料を基に知識グラフを作り、GraphRAGで必要時にLLMに参照させることで、誤答を減らしつつコストを抑えられる、ということですね。

AIメンター拓海

完璧です!その理解で会議を進めれば、現場も経営も納得しやすくなりますよ。大丈夫、一緒に設計すれば必ず実用化できます。

1.概要と位置づけ

結論を先に述べる。古典的な伝統中国医学(TCM: Traditional Chinese Medicine、伝統中国医学)の豊富な知見は、そのままでは現代の大規模言語モデル(LLM: Large Language Model、大規模言語モデル)に頼るだけでは誤りや不安定さ、いわゆるハルシネーションを生みやすい。しかし、文献から高精度に意味を抽出し、関係性を知識グラフ(knowledge graph、KG、知識グラフ)として整理し、GraphRAG(GraphRAG、グラフを用いたRAG)で参照させる方式は、信頼性を高めつつ計算資源の効率化も実現する点で実務投入に耐えうるアプローチである。

本手法が変えた点は三つある。第一に、古典テキストの高忠実度な構造化により、曖昧な表現を明確なエンティティと関係に落とせるようになった点である。第二に、知識グラフを介した参照はLLMの出力に根拠を添えられるため、現場の判断材料として使いやすい点である。第三に、GraphRAGの設計により、全データを常時学習させる必要がなく、推論時に必要な部分だけを効率的に参照することでコストを抑制できる点である。

この配置は企業が既存の医学知見をデジタル化して活用する際の実務的なロードマップを示す。経営判断の観点では、初期投資を限定的に抑え、検証フェーズで効果を示しつつ段階的に範囲を拡張していく戦略が適切である。技術的には、古典中国語の自然言語処理と知識抽出の精度が鍵となるため、ドメイン専門家との連携が不可欠である。

要点を三つで整理する。信頼できる知識ソースの選定、関係性を明示する構造化、参照を制御する検索増強生成(RAG: Retrieval-Augmented Generation、検索増強生成)による運用が中核である。これにより現場の採用障壁を下げつつ、安全かつ説明可能な応用が期待できる。

2.先行研究との差別化ポイント

本研究は主に先行研究との比較で二つの課題を克服している。従来の取り組みは大規模なファインチューニングを要するため計算コストが高く、さらに非構造化のままでは誤答(ハルシネーション)が生じやすかった。対して、今回のアプローチはトレーニングを大規模に行う代わりに、既存文献から高精度に意味を抽出して知識グラフに組み上げ、推論時にGraphRAGで参照することで、コストと信頼性のトレードオフを改善した点が差別化要素である。

先行の医療分野のGraphRAG系研究(例: MedGraphRAG)も存在するが、それらは現代医学の体系を前提としており、古典中国医学に特有の表現や概念構造には適合しにくい。ここで重要なのは、古典の語彙や記述論理を専門領域で検証し、専用のプロンプトやドメイン特化LLMを用いて高忠実に抽出する工程を設計している点である。

さらに、従来研究は往々にしてブラックボックス化したLLMの出力だけを提示していたが、本アプローチは知識グラフのノードやエッジを参照として添付し、説明可能性を高めている。これにより医療現場での受容性が高まり、運用上のガバナンスも確保しやすくなる。

経営的視点で言えば、先行手法がスケールするほどコストが膨らむのに対し、本方式はパイロットから段階的に拡張可能であり、投資対効果(ROI)を管理しやすい点が差別化の本質である。

3.中核となる技術的要素

中核は三つの技術要素で構成される。第一に、ドメイン特化LLMとカスタムプロンプトを用いた高精度な意味抽出である。古典中国語の表現をエンティティや関係に変換する際、一般の言語モデルでは語彙差や語法差に弱いため、専門家監修のプロンプトとモデル微調整を組み合わせることが必要である。

第二に、抽出結果を多関係型の知識グラフ(KG)として構築する工程である。薬材・症状・処方・相互参照などをノードとエッジで明示的に表現することで、後続の推論が関係に基づいて行えるようになる。この構造化がハルシネーション低減の鍵である。

第三に、GraphRAGというアーキテクチャを用いた参照と生成の連携である。GraphRAGは知識グラフから関連ノードを検索し、その部分集合をLLMのコンテキストとして与える仕組みだ。これによりLLMは必要な事実に基づいて生成を行い、不要な推測を減らせる。

これら三つを統合することで、現場で要求される説明性と効率性を両立できる。つまり、信頼できる知識ソースを明示しつつ、運用コストを抑えるという経営判断に合致した技術プランである。

4.有効性の検証方法と成果

有効性は、抽出精度、推論の正答率、運用コストの三指標で評価されている。まず抽出精度では、専門家による検証を経た古典テキスト約3.73百万文字からのエンティティ抽出が行われ、高い忠実度が報告されている。次に推論の正答率は、知識グラフ参照ありとなしで比較し、参照ありが有意に高い。

運用コストについては、事前学習や大規模ファインチューニングを必要としないため、計算リソース消費が抑えられる点が示された。GraphRAGによるオンデマンド参照は、常時モデルを更新するより現実的なコストで実運用に耐える設計であることを示している。

これらは実験的な診断タスクやエンティティ抽出タスクで定量評価され、従来法より誤答率が低下し、参照可能な根拠を提示できることで現場の信頼性が向上したとの報告がある。つまり学術評価と実務適用の両面で有効性が裏付けられている。

5.研究を巡る議論と課題

主要な議論点は、知識の正典性と倫理、そして法規制への対応である。古典テキストには時代や地域による表現差があり、どの版を『正典』とするかは専門家間でも議論が分かれる。この選定が誤ると、構築されたKG自体に偏りが出るため、ガバナンス体制の構築が不可欠である。

また、医療応用における倫理面と法規制も無視できない。AIの提案が患者ケアに直結する場合、最終責任を誰が取るのか、提示した根拠の信頼性をどう担保するかが重要である。これには医療専門家の常時関与と透明なログ管理が求められる。

さらに技術的課題としては、古典語と現代語の意味対応の難しさ、そして知識グラフの更新やスケール時に生じる一貫性の維持管理がある。運用面では現場の受容性を高めるため、説明性と操作性を両立させるUI設計も必要である。

6.今後の調査・学習の方向性

今後はまずドメイン専門家と共同した標準化作業が優先される。どの文献を根拠とするか、その検証プロセス、そして更新手順を明文化することでガバナンスを整備することが不可欠である。次に、知識グラフの自動更新と矛盾検出の仕組みを研究し、運用負荷を下げることが必要である。

技術面では、古典語処理に特化したモデルとプロンプト設計の改善、及び参照付き出力の自動検証手法を確立することが望ましい。さらに実運用でのフィードバックループを確立し、現場データを安全に取り込む仕組みを作ることが研究の方向性である。

最後に、企業が導入する際の実務ガイドラインや評価指標の標準化も求められる。これにより経営判断者が導入効果を定量的に評価でき、段階的な投資判断を行いやすくなるはずである。

検索に使える英語キーワード

Traditional Chinese Medicine, OpenTCM, GraphRAG, knowledge graph, LLM, Retrieval-Augmented Generation, medical knowledge retrieval

会議で使えるフレーズ集

「古典資料をそのまま学習させるのではなく、専門家が検証した知識を構造化して参照させる方式により、誤答を低減しつつ運用コストを抑えられます。」

「まずは限定的な診断ユースケースでパイロットを回し、専門家の検証データを増やしながら段階的に拡大しましょう。」

「出力には必ず参照ノードを添付して説明性を確保し、現場の最終判断をサポートする形にしてください。」

引用元: J. He et al., “OpenTCM: A GraphRAG-Empowered LLM-based System for Traditional Chinese Medicine Knowledge Retrieval and Diagnosis,” arXiv preprint arXiv:2504.20118v4, 2025.

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む