01
2025.03.06(Thu)
目次
――まずはお二人の自己紹介からお願いします。
シバタ アキラ氏(以降、シバタ氏):これまで十数年間にわたり、AI関連など産業を革新するような業務に携わってきました。学術研究としてデータサイエンス分野に取り組んだ後、この技術のビジネス応用に関心を持ち、大手コンサルティングファームでコンサルタントとして活動するほか、AIプラットフォーム製品の日本展開にも関与しました。
現在は、米国のスタートアップ企業W&Bの日本法人代表を務めています。生成AIの活用が広がる中で、大規模言語モデルの開発・配備・監視を一貫して行うLLMOps(Large Language Model Operations)基盤「Weave」の提供を昨年より開始し、AIモデル開発者はもとより、アプリケーション実装を担当するエンジニアなど、生成AIを活用する幅広いビジネス分野を支援していこうとしている最中です。

岩瀬 義昌(以降、岩瀬):NTTドコモビジネスのイノベーションセンターに所属し、生成AIプロジェクトを主導しています。現在、日本語の文脈を精緻に解析して機密情報を検知するガードレールの「chakoshi」や、非構造化データを構造化する「rokadoc」の開発を行っています。
――この1、2年における日本企業の生成AI活用には、どんな変化を感じていますか。
岩瀬:2024年頃まではPoC(概念実証)が多かったのですが、最近は本番環境での活用に踏み切る企業が増えています。自社が保有する業務データと生成AIを組み合わせ、新たな顧客体験価値の創出を模索する事例が増えている印象です。しかしその一方、PoCで終わってしまうケースが少なくないのも事実です。

シバタ氏:ChatGPTをはじめ、クラウドベースで比較的手軽に使えるサービスの利用は急速に広がりました。ただし、より高度なビジネスインパクトを生み出すためには、他のツールやデータ、あるいは人との連携が不可欠です。そして、その方法論はまだ確立されておらず、発展途上にあります。
また、生成AI特有の課題として、ハルシネーション(誤情報生成)やプロンプトインジェクション(※)といったリスクもあり、特にコンシューマー向けサービスにおける安全性確保のための環境整備が急がれています。
(※)AIに悪意ある指示を混入させ、意図しない応答や情報漏えいを狙う攻撃手法
――今まさに生成AIの本格活用が始まろうとしている中で、W&BとNTTドコモビジネスが接点を持ったのは、いつ、どのようなきっかけからですか。
シバタ氏:岩瀬さんが個人的に運営しているテック系Podcast「fukabori.fm」に、弊社の創業者の一人であるルーカス・ビワルドCEOを対談ゲストとしてお招きいただいたのが、そもそものきっかけと聞いています。
岩瀬:たしか2022年頃だったと思います。私のPodcastをたまたま聞いてくださったW&Bのエンジニアの方から「もしよければうちのCEOを紹介できますよ」とお声がけをいただき、「ならばぜひ」という流れになりました。
シバタ氏:私がW&Bに入社したのもちょうどその頃ですから、お互いに割と早い時期から面識を持っていました。
――そうした個人的なつながりが、会社間の提携に発展していったのですね。
シバタ氏:会社間で生成AIをテーマとした協業に関する協議を始めたのは、今から2年前くらいのことです。
岩瀬:弊社自身がW&B製品のユーザーとなりました。生成AIプロジェクトが本格化する中で、私のチームではW&BのMLOpsプラットフォーム「Models」を利用し、さまざまなLLMのファインチューニングに役立てていました。
CEOのルーカス氏自身がAIエンジニアということもあって、W&BはAI開発者やユーザーが求める「かゆい所に手が届く」機能を熟知しており、プロダクトのユーザー体験は非常にレベルが高いと感じています。
シバタ氏: 私もchakoshiのデモを見せていただき、課題解決に向けた考え方のわかりやすさや、アジャイルな開発に興味を惹かれました。製品自体の動作が非常に速いだけでなく、スケーラビリティも高く、NTTドコモビジネスのエンジニアリング力の高さを感じました。
その後、弊社はよりビジネス現場の業務に近いAIアプリケーションの開発支援に注力するようになり、そこでリリースしたのが、前述したLLMOps基盤のWeaveというわけです。これを機にNTTドコモビジネスのchakoshiとWeaveの間で成立する補完関係に着目し、2023年春頃から両社の連携を模索してきました。そして2025年9月にタイアップを発表するに至った、というのがこれまでの大まかな経緯です。

――両社の接点となったWeaveとchakoshiについて、あらためてそれぞれの特徴を教えてください。
シバタ氏:Weaveを端的に説明すれば「LLMを活用したアプリケーションの開発支援に特化したプラットフォーム」です。具体的には、タスク達成精度の評価や、それに基づくアプリケーション改善のためのインサイトの提供、開発後のデプロイから、本番環境におけるオブザーバビリティ(モニタリング)に至るまで、質の高いAIアプリケーション展開を一貫してサポートします。また、ユーザーとのインタラクションを可視化し、AIモデルの不適切な応答やユーザーによる不正なデータ送信といった問題にリアルタイムで対応する介入メカニズムも備えています。こうした包括的なLLMOpsの仕組みを提供することでAIアプリケーションの安全性・品質を向上します。
岩瀬:chakoshiは、日本語に特化した生成AIテキストの安全性評価ツールです。生成AIが誤った情報を出力した場合、あるいは悪意を持ったプロンプトインジェクションによる内部情報の窃取を試みる入力などが行われた際に、それらテキストのリスクを定量的に評価し、安全性スコアを提供します。日本で開発されたガードレールなので日本語処理能力が優れており、日本語特有の文脈や言い回しを理解できます。加えて、海外モデルでは困難な日本固有の企業文化にも対応できるよう最適化されているため、例えばマイナンバーなどの個人情報を高精度に検出することが可能です。
――Weaveとchakoshiを組み合わせることで、どのようなシナジーが生まれますか。
岩瀬:Weaveにテキストの安全性チェック機能はないものの、外部APIと連携できるインターフェースを有しています。そこからchakoshiのAPIを呼び出して、テキストの安全性の判定結果を受け取ることが可能です。一方、chakoshi側はAIアプリケーションの運用ログを保持することはできても、Weaveのような高度なオブザーバビリティ機能は実装されていません。このように両製品はそれぞれ足りない部分を補完し合えるため、組み合わせて利用することで真価を発揮します。
シバタ氏:弊社から見てもchakoshiは非常に完成度の高い製品であり、両社がパートナーシップを結ぶことで、ビジネス面でもWin-Winの関係を築いていけると考えました。実際に、直近でchakoshiの精度を計測するベンチマークテストを行いました。
テストでは、まず前提を探るためOpenAIが提供する大規模言語モデル「GPT-5」と「gpt-oss-120B」を比較検証しました。結果、前者に比べて後者は「真実性」や「毒性」といった指標で明らかに低いスコアにとどまっていることが確認できました。これは、GPT-5に比べてgpt-oss-120Bはハルシネーションなどの問題を多く含み、また有害・不快・攻撃的な表現を出力する度合いも高いことを意味します。
これを踏まえgpt-oss-120Bに対し、Weaveとchakoshiを活用して出力プロンプトにガードレールを導入したところ、真実性や毒性の指標が大幅に改善しました。このベンチマークテストの結果は、安全性が高いとは言えない生成AIモデルを用いる場合でも、適切なガードレールと組み合わせれば、信頼性や安全性を高められることが実証できたと言えるでしょう。
――ビジネスの現場に向けて、どのようなユースケースを想定していますか。
岩瀬:弊社は現在、数十種のAIエージェントを駆使したソリューションの積極展開を進めています。例えば特許申請プロセスの自動化など、業務効率向上を目的としたシステムの開発に取り組んでいます。しかし、単に必要文書をワンショットで生成するだけでは十分とは言えず、その品質や有用性を継続的に確認し、高めていかなければなりません。そうした中で期待が高まっているのが、Weaveとchakoshiを組み合わせた課題解決の複合的なアプローチです。
シバタ氏:カスタマーサービス領域は重要なターゲットの1つだと想定しています。社内対応であれば、多少の誤りが生じても許容される場合がありますが、社外のお客様が相手となると、そうはいきません。チャットボットや電話(音声)、メールなどのチャネルを通じてAIが自動応答した内容について、より厳格な統制と管理が求められます。例えば価格の問い合わせなどの重要事項について誤った回答を行ってしまった場合、顧客からその金額で取引を求められるリスクが生じます。AIによる発言が企業の公式見解と受け止められ、後に訴訟問題に発展したケースもあります。
このようにカスタマーサービス領域では、リスク管理の観点から不確実な情報には回答を控えたり、人間のオペレーターにエスカレーションしたりといった判断を迅速に行えるかどうかが問われます。Weaveとchakoshiを組み合わせたソリューションは、そういった場面で重要な役割を担っていくでしょう。

――両社のパートナーシップを通じて展開していく「日本語ガードレール×LLMOps」のソリューションをさらに進化・発展させていくため、新たに見えてきた課題があれば教えてください。
シバタ氏:生成AI利用に関するルールは、単なる言語的な側面だけではなく、各国・各地域で定められている法規制にも大きく依存します。特にEUでは、AIが許容される行為とそうでない行為を明確に区別するため、さまざまな制度の制定や改定が進められている最中です。
例えば資産運用の相談に対して具体的な提案を行う場合、本来であれば金融業の免許が必要な場面でも、AIは特段の資格を持たずにかなり踏み込んだ助言を行ってしまうケースが見受けられます。仮に人間が行った場合、金融監督機関の指導対象となるような事案ですが、AIについては現状では取り締まりが難しい状況です。
健康相談や法律相談なども同様で、医師免許や弁護士資格を持たないAIによる自動応答が広がっています。今後はこうした領域でも規制が強化される可能性が非常に高く、国や地域ごとに異なるルールに則った運用が求められることになります。したがって生成AIに関しても単なる言語能力のみならず、地域固有の法令やガイドラインを順守した振る舞いが一層求められるようになると考えられます。
岩瀬:法規制だけではなく、企業ごとの社内ルールへの対応が求められるケースも増えています。例えば弊社がITソリューションを提供しているお客様でも、消費者との無用なトラブルを避けるために、チャットボットを通じた営業行為や自社製品への恣意的な勧誘などを禁止していました。そのお客様が求められたのも、本来のトピックから逸脱した発言を自動検知して制御する機能の実装です。生成AIの利用拡大に伴い、同様の対応を求めるニーズはますます増えていくことが予想されます。
また、生成AIが扱う情報はテキストだけでなく画像や動画、音声などにも拡大しているため、そうしたマルチモーダルに対応した生成内容の判定や不適切表現の検知を行うガードレールが不可欠となるでしょう。これらの表現の判定は文脈や場面によっても変わるため、倫理観に応じて特化したチューニングが一定必要になると考えています。
シバタ氏:そうした観点から、生成AIやAIエージェントの自律的行動を監視する仕組みの必要も増しており、ガードレールやLLMOpsが担っていく役割も、ますます拡大していくことになりそうです。
――挙げていただいた新たな課題も見据えつつ、今後に向けたソリューションの展望やお二人の意気込みなどをお聞かせください。
岩瀬:率直なところ現時点では、日本における生成AIのビジネス活用や社会実装は、欧米をはじめとする諸外国と比べやや遅れています。しかし、必要なパーツは徐々に揃いつつあるのも事実です。もちろんWeaveやchakoshiも、生成AI活用を支える重要なインフラとなります。今後に向けてW&Bと弊社はさらに緊密に連携し、生成AI技術のブラッシュアップと社会実装を進めることで、企業のDX推進をはじめ人々の生活の利便性と幸福度の向上にも寄与していきます。
シバタ氏:日本語特有の問題に対応するchakoshiと、AIアプリケーション開発・運用を支えるWeaveの連携が、今後の生成AI活用の重要なモデルとなるのは間違いありません。そうした中で急務となっているのは「実際にどのような場面で活用され、どんな効果を上げているのか」という問いに答えるユースケースの拡大です。
今後、W&BとNTTドコモビジネスの両社はビジネス面での連携も強化し、より多くのお客様に対する実践的なソリューション展開にあたるとともに、その事例を広く共有していきたいと考えていますので、ぜひご期待ください。
OPEN HUB
THEME
New Technologies
#最新技術