産業用の材料と化学研究開発におけるLLMの活用

※ 本記事は、 Vaibhav Palkar, PhD および Mike Heiber, PhDにより執筆され Utilizing LLMs Today in Industrial Materials and Chemical R&D の参考日本語訳です。

 

大規模言語モデル(LLM)は、すべての材料および化学研究開発組織の技術ソリューションセットに含むべき魅力的なツールであり、変革をもたらす可能性を秘めています。LLMがそれ自体であらゆる問題を解決する万能のソリューションであるという噂が広まっていますが、実際の応用では、他のいくつかの重要なデジタル技術との組み合わせで、巧みに設計されたソリューションの一部として機能します。

顧客との取り組みや、材料および化学研究開発におけるLLM技術に関する最新の学術文献のレビューに基づくと、産業界で最も成熟しており、採用準備が整っているユースケースとして、「知識抽出」と「ラボアシスタント」の2つのカテゴリーがあることがわかりました。

 


 

LLMの技術概念

大規模言語モデル(LLM)は、生成AIのサブセットであり、「大量」のテキストデータ(例:WikipediaやGithubのようなインターネットの一部)を使用して訓練されたディープラーニングベースの基盤モデルで、「数十億から数兆」のモデルパラメータが必要です。現在、LLMの豊富なエコシステムが存在しており、大規模で高価なクローズドソースモデル(GPT、Claude、Gemini)から、小規模で安価なオープンソースモデル(Llama、Mixtral、Gemma)までさまざまです。

最初にLLMの主な技術的概念をご紹介します。

ゼロショット学習と少数ショット学習 コンテキストウィンドウ 関数呼び出し
LLMには「ゼロショット」能力の幅広い範囲があり、特定のタスクのために明示的な訓練を行わなくても多くのタスクに取り組むことができます。また、「少数ショット」能力が現れ、少数の訓練例を提供するだけでLLMが新しいパターンを学習できるようになります。 LLMから応答(推論)を得るには、入力テキスト(プロンプト)を提供します。コンテキストウィンドウは、モデルが推論時に考慮する追加テキストの量です。LLMとのチャットでは、コンテキストウィンドウはそのセッションの全チャット履歴であり、ユーザーのプロンプトとモデル生成の応答の両方を含みます。* LLMは「関数呼び出し」APIを使用して任意のソフトウェアツールに接続できます。自然言語を使用して関数の目的、入力、および出力を説明し、LLMがその関数を呼び出すタイミングを学習できるようにします。材料および化学研究開発の文脈では、このような関数呼び出しを使用してシミュレーションを実行したり、データベースを検索したり、化合物の分子量などの定量情報を取得したりすることができます。

*AnthropicのClaude 2.1は、現在の業界最先端のコンテキストウィンドウの最大値を設定しており、約150,000語(すなわち200,000トークン)に達しています。Googleの最新のGemini 1.5 Proのティーザーは、桁違いに大きなコンテキストウィンドウを約束しています。 (2024年3月現在)

LLMの実用化には何が必要か?

LLMは多くの異なるタスクに対して優れた能力を持っていますが、基盤モデルだけで直接達成できる範囲は限られており、特に科学研究開発のような専門的における高度な技術分野のタスクには限界があります。

LLMから有用な結果を得るには、他の重要なソフトウェアツールも活用した上で、精巧にされたソリューションを開発する必要があります。このようなソリューションを構築し、実用化するために、主に下記に考慮する必要があります。

LLMの選択

最初に決断することは、どのLLMを試すかです。GPT-4のようなクローズドソースのLLMは高性能ですが、運用コストも高くなります。一方、小規模なオープンソースの代替モデルは、性能はわずかに劣りますが、運用コストははるかに低く抑えられます。ライセンスやデプロイに関連するコストも、オープンソースとクローズドソースのLLMを選ぶ際の重要な要素です。どちらを選んでも、ソリューションにモジュール方式で統合し、将来的に高性能または低コストのモデルがリリースされた場合に、簡単に異なるモデルをテストし、交換できるようにするべきです。

LLMの性能向上

最初のモデルを選択したら、意図した動作を十分な精度で実現する方法を見つける必要があります。モデルの出力を調整するために最初に行うことはプロンプトエンジニアリングで、迅速に行うことができます。ほとんどの研究開発では、この方法で初期段階の改善が見られますが、十分な性能を達成するためにはより高度な最適化が必要です。最も一般的かつ効果的な方法は、Retrieval Augmented Generation(RAG)とファインチューニングですが、これらの方法は大きく分けて2種類の異なる最適化に適しています2

プロンプトエンジニアリング

プロンプトエンジニアリングでは、モデルからより良い結果を得るためにプロンプトテキストを修正します。プロンプトエンジニアリングの方法は、「明確な指示を書く」などの抽象的な一般ガイドラインの実装から、Chain-of-Thought(CoT)プロンプティングなどの科学的アプローチまで多岐にわたります。入力プロンプトの体系的な探索を支援するツール(例:LangChain)もいくつかあり、利用できます。

リトリーバルオーグメンテッドジェネレーション(RAG:Augmented Generation)

RAGは、検索アルゴリズムの結果をプロンプトに追加し、LLMに新しいコンテキスト情報(例えば、特定の分野の知識)を提供する方法です。会社でRAGパイプラインを設定するには、既存のナレッジベースから始めて、ナレッジベースのクリーンアップ、データの解析と取り込み、チャンク化、インデックス作成、埋め込み、検索、圧縮など多くのステップが必要です。各ステップは最適化され、元のプロンプトに最良の情報が含まれるようにすべきです。RAGはプロンプトに多くの特定分野の情報を追加するため、コンテキストウィンドウのかなりの部分を消費し、運用コストが高くなります。

ファインチューニング(Fine-Tuning)

ファインチューニングは、モデルの重み(パラメータ)を調整するもので、LLMの出力を特定の形式に調整するのに適しています。例えば、人気のあるChatGPTアプリケーションでは、GPT-4とGPT-3.5の2つの基盤モデルから選択でき、これらはチャットの会話を使用してファインチューニングされ、チャットボットのように動作するようになっています。ファインチューニングには、モデルに供給するための大規模でクリーンなデータセットを構築する必要があり、使用前にトレーニングを行うため、初期コストが高くなります。また、ファインチューニングされたモデルは通常、入力プロンプトが小さく済むため、運用コストが低くなることも覚えておくべきです。

ツール開発とオーケストレーション

実用化に関連するもう一つの重要な部分は、LLMの関数呼び出しAPIに渡すツールとドキュメントを開発することです。これらのツールを開発する際には、LLMがそのツールのユーザーであることを考慮する必要があります。これらのツールには、特定のサブタスクに最適化された他のLLMも含まれる場合があります。複雑なソリューションでは、複数のLLMおよび非LLMツールを利用して、RAGパイプラインのコンテキストの改善から特定のプロンプトへの応答の改善まで、全体のワークフロー内のさまざまなサブタスクを実行します。

産業用の材料および化学研究開発におけるLLM

LLMは、特定の分野の技術用語、概念、および関係をどれほど理解しているでしょうか?さらに重要なのは、企業にとって重要な狭いサブドメイン、すなわち材料科学や化学を理解し、企業のプロセスや用語の複雑さを取り入れることができるかどうかです。

一般的な材料科学および化学の分野では、これらの質問に答えるために開発されたいくつかのベンチマークが存在します。例えば、ChemLLMBench3やMaScQA4などです。企業レベルで効果的なソリューションを開発する際には、ドメイン固有のタスクにおけるモデルの性能を評価することが不可欠です。

自然言語をアクションに変換するLLMの能力は、すべての産業で効果的です。特に材料および化学の研究開発においては、LLMは科学者の頭の中のアイデアから可能性の体系的な探求へと迅速に進む能力を提供し、ラボ作業のアシスタントとして優れた候補となります。さらに、少数ショット学習は材料および化学研究において特に有益です。なぜなら、従来の機械学習モデルを訓練するために大量のデータを取得するには多くの実験を行う必要があり、これがしばしば大きなボトルネックとなるためです。

しかし、LLMは言語モデルであるため、限られたタスクセットでしかうまく機能せず、数値の予測にはあまり適していません。また、LLMが「幻覚」を起こし、不正確な回答に過度の自信を示す傾向は、科学者が恣意的な方向に誤導されると重大な結果を招く研究においては、特に有害です。しかし、RAGはプロンプト内に重要なコンテキスト情報を提供することで幻覚を防ぐのに役立ちます。これにより、モデルがそのような情報を生成する必要がなくなり、引用を提供することもできるため、人間の専門家が事実とモデルの幻覚を迅速に区別することができます。Chain-of-Thought1 やSelf-Consistency5のような特別なプロンプト技術は、モデルにその推論を詳述させたり、応答に至るまでの前の考えを評価させたりすることを促します。また、関数呼び出しAPIは、特定のサブタスクに最適化された決定論的な関数の出力で、生成されたモデル応答の重要な部分を置き換えることもできます。

すぐに活用できるユースケース

繰り返しになりますが、材料科学と化学研究開発におけるLLMの主なユースケースの2つのカテゴリーが、今日の実用的な採用のトップに立っています。

1. 知識抽出と要約

LLMは知識抽出と要約に優れており、材料科学や化学の多くのユースケースで既に利用されています。例えば、科学論文を要約した書籍の自動生成などです6

材料および化学企業のワークフローの中で、このような知識の要約が価値を持つ段階がいくつかあります。それらには市場調査、化学合成計画、計算スクリーニング、顧客サービスリクエストへの対応などが含まれますが、これらに限定されません。各ケースにおいて、検索の具体的な内容は、関連するクエリの種類、検索する知識源、取得する必要のある情報の種類など、非常に異なります。例えば、新しい材料や化学物質の市場調査を行う場合、競合他社のウェブサイト、内部文書、既存の特許を検索して、既存材料の特性、コスト、合成オプションなどの情報を特定する必要があります。一方、顧客サービスリクエストに対応するためには、特定の化学物質の名前、問題の説明などを探すために、メールコミュニケーション、問題追跡システム、内部知識ベースを検索する必要があります。これらの場合、化学物質の名前、表、図、画像から情報を抽出するための専門的なツールも必要になることがあります。

RAGは、ドメイン固有の知識抽出において人気があり、重要な技術です。RAGシステムは、内部の文書リポジトリや、arXivやGoogle Scholarなどのオンライン出版ソースに設定することができます。ただし、RAGパイプラインの性能は、それに含まれる検索アルゴリズムの性能に大きく依存します。したがって、パイプラインのLLMベースの要約コンポーネントを最適化する前に、検索アルゴリズムを最適化することが重要です。LLMは、より安価なアルゴリズムの結果を再ランク付けすることで検索性能を向上させるのに役立ちます。また、テキストの一部を入力として与え、それを結果として持つ適切な検索クエリを生成するという逆の質問をすることで、初期の検証データセットを構築するためにも使用できます。

結論として、LLMベースの知識ソリューションはさまざまな方法で非常に有用ですが、最も効果的にするためには特定のユースケースに合わせて調整する必要があります。

2. ラボアシスタントと自動化

前述のように、LLMの自然言語能力により、1つ以上のLLMを活用したシステムを構築することで、科学者のタスクを自動化および抽象化する有能なラボアシスタントとして利用することができます。

関数呼び出しAPIは、そのようなシステムを構築するための重要な機能であり、LLMと任意の科学コードとのインターフェースを提供します。このようなアシスタントまたは自動化システムの実装の深さは、非常に特定のタスクを実行する単純なアシスタントから、複数のタスクを完全に自動化する複雑なシステムまでさまざまです。組織にとって適切な実装レベルは、その組織のビジネスや既存のワークフロー、生成される価値、および人材や物理的な制約によります。

ChemCrow7 とCRESt8は、LLMベースのシステムであり、複雑な決定(例:新しい知識を検索するタイミング)を行い、外部のエンティティを呼び出して複雑なアクション(例:自動化された化学反応の実行)を実行する中央エージェントとして機能します。ChemCrowやCREStのようなシステムは、LLMを使用して自律的に複雑な計画と実行を行う可能性を示していますが、そのような完全自律システムの堅牢性はまだ調査されていません。

完全自動化を安易に目指すより、企業にとっての推奨できる出発点としては、「分子設計アシスタント」が考えられます。LLMベースのアシスタントを開発し、化学者が自然言語で化学のアイデアを提供し、それを分子設計空間に適用し、追加の分子候補を生成し、さまざまな計算ツールを使用して候補分子を分析できるようにします。このようなアシスタントの中心的な考え方は、LLMを以下のような特定のタスクを実行するツールに接続することです:

  • SMILES表現を原子座標に変換する
  • 分子のHOMOとLUMOのエネルギー差のDFT計算を行う
  • 公共データベース(PubChemなど)で情報を検索する
  • 合成可能性/コストを予測する
  • レトロシンセシスを推奨する
  • MLモデルを使用して特性を予測する

このようなソリューションは、LLMの自然言語能力と現代の物理ベースおよびデータ駆動型の計算化学ツールの力を組み合わせ、実験研究者が強力な計算ツールを活用しやすくし、研究開発の意思決定を支援します。

今こそ、LLM活用の時です

LLMは急速に登場し、他のデジタル技術とともに進化し続けていますが、材料科学および化学研究開発においてそれらを活用することは、単なる「AIの未来」に向けた投機的な試みではありません。それらは現在のイノベーション戦略の一部とすべきであり、すぐにでも実装可能です。LLMが提供する前例のない機会を活用する企業は、ますます技術駆動型になる業界で市場をリードするでしょう。

貴社にとって最適なLLMベースのソリューションを開発するための具体的なアドバイスや支援について、Enthoughtの専門家がお手伝いします。ご相談はこちらから

もっと詳しく知りたいですか?こちらをご覧ください:The Modern Materials Science and Chemistry Lab

 


 

参考

  1. Chain-of-thought prompting elicits reasoning in large language models. (2022) Advances in Neural Information Processing Systems, 35, 24824-24837.
  2. RAG vs Fine-tuning: Pipelines, Tradeoffs, and a Case Study on Agriculture. (2024) arXiv preprint arXiv:2401.08406.
  3. What can large language models do in chemistry? a comprehensive benchmark on eight tasks. (2024) Advances in Neural Information Processing Systems, 36.
  4. MaScQA: investigating materials science knowledge of large language models. (2024) Digital Discovery, 3(2), 313-327.
  5. Self-consistency improves chain of thought reasoning in language models. (2022) arXiv preprint arXiv:2203.11171.
  6. ChemDataWriter: a transformer-based toolkit for auto-generating books that summarise research. (2023) Digital Discovery, 2(6), 1710-1720.
  7. ChemCrow: Augmenting large-language models with chemistry tools. (2023) arXiv preprint arXiv:2304.05376.
  8. CRESt – Copilot for Real-world Experimental Scientist. (2023) doi:10.26434/chemrxiv-2023-tnz1x-v4 | Li Group MIT (2023, July 2). CRESt - Copilot for Read-world Experimental Scientists. YouTube. https://www.youtube.com/watch?v=POPPVtGueb0 
シェアーはこちらへ:

「AIスーパー・モデル」が材料研究開発を革新する

近年、計算能力と人工知能の進化により、材料科学や化学の研究・製品開発に変革がもたらされています。エンソートは常に最先端のツールを探求しており、研究開発の新たなステージに引き上げる可能性を持つマテリアルズインフォマティクス(MI)分野での新技術を注視しています。

Read More

デジタルトランスフォーメーション vs. デジタルエンハンスメント: 研究開発における技術イニシアティブのフレームワーク

生成AIの登場により、研究開発の方法が革新され、前例のない速さで新しい科学的発見が生まれる時代が到来しました。研究開発におけるデジタル技術の導入は、競争力を向上させることが証明されており、企業が従来のシステムやプロセスに固執することはリスクとなります。デジタルトランスフォーメーションは、科学主導の企業にとってもはや避けられない取り組みです。

Read More

産業用の材料と化学研究開発におけるLLMの活用

大規模言語モデル(LLM)は、すべての材料および化学研究開発組織の技術ソリューションセットに含むべき魅力的なツールであり、変革をもたらす可能性を秘めています。

Read More

R&D イノベーションサミット2024「研究開発におけるAIの大規模活用に向けて – デジタル環境で勝ち残る研究開発組織への変革」開催レポート

去る2024年5月30日に、近年注目のAIの大規模活用をテーマに、エンソート主催のプライベートイベントがミッドタウン日比谷6FのBASE Qで開催されました。

Read More

科学研究開発における小規模データの最大活用

多くの伝統的なイノベーション主導の組織では、科学データは特定の短期的な研究質問に答えるために生成され、その後は知的財産を保護するためにアーカイブされます。しかし、将来的にデータを再利用して他の関連する質問に活用することにはあまり注意が払われません。

Read More

デジタルトランスフォーメーションの実践

デジタルトランスフォーメーションは、組織のデジタル成熟度を促進し、ビジネス価値を継続的に提供するプロセスです。真にビジネスを変革するためには、イノベーションを通じて新しい可能性を発見し、企業が「デジタルDNA」を育む必要があります。

Read More

科学研究開発リーダーが知っておくべき AI 概念トップ 10

近年のAIのダイナミックな環境で、R&Dリーダーや科学者が、企業の将来を見据えたデータ戦略をより効果的に開発し、画期的な発見に向けて先導していくためには、重要なAIの概念を理解することが不可欠です。

Read More

科学における大規模言語モデルの重要性

OpenAIのChatGPTやGoogleのBardなど、大規模言語モデル(LLM)は自然言語で人と対話する能力において著しい進歩を遂げました。 ユーザーが言葉で要望を入力すれば、LLMは「理解」し、適切な回答を返してくれます。

Read More

ITは科学の成功にいかに寄与するか

科学と工学の分野においてAIと機械学習の重要性が高まるなか、企業が革新的であるためには、研究開発部門とIT部門のリーダーシップが上手く連携を取ることが重要になっています。予算やポリシー、ベンダー選択が不適切だと、重要な研究プログラムが不必要に阻害されることがあります。また反対に、「なんでもあり」という姿勢が貴重なリソースを浪費したり、組織を新たなセキュリティ上の脅威にさらしたりすることもあります。

Read More

科学データを活用して発見とイノベーションを加速する

デジタルトランスフォーメーションがもたらす変革の中心にはデータがあります。研究開発におけるデジタルトランスフォーメーションでは科学データを取り扱いますが、科学データには他の業務データと異なる特徴があり、取り扱い方に注意を払う必要があります。

Read More