SmartFlow: LLMを用いたロボティックプロセスオートメーション(SmartFlow: Robotic Process Automation using LLMs)

\n

田中専務
\n

拓海先生、最近部下から「RPAにAIを入れると現場が変わる」と言われているのですが、正直よく分かりません。今回の論文は何を示しているんでしょうか。

\n

\n

\n

AIメンター拓海
\n

素晴らしい着眼点ですね!大丈夫、一緒に整理すれば必ず分かりますよ。結論から言うと、この論文は従来の決め打ち型RPAではできなかった柔軟な画面操作を、事前学習済みの大規模言語モデル(LLM)と視覚モデルで賄えることを示しているんですよ。

\n

\n

\n

田中専務
\n

なるほど。要は画面の見た目が変わってもロボットが自分で判断して入力できる、と。けれども投資対効果が気になります。現場での導入コストはどれほど変わるんでしょうか。

\n

\n

\n

AIメンター拓海
\n

素晴らしい問いです!まず重要なポイントを三つに分けます。1) 初期設定の負担は増える可能性があるが、画面変更ごとの再設定は大幅に減る。2) 例外処理や多様なフォーム対応で人的工数が削減される。3) 長期的には保守コストが下がるため総保有コスト(TCO)が改善できる、という見立てです。

\n

\n

\n

田中専務
\n

なるほど、長い目で見れば得があると。とはいえ、現場の様々な画面レイアウトに対して本当に自動で対応できるんですか。うちの基幹システムは古い画面が多いんです。

\n

\n

\n

AIメンター拓海
\n

その点も安心してください。SmartFlowはスクリーンのピクセルそのものだけでなく、視覚(Computer Vision)とテキスト理解(Natural Language Processing)を組み合わせ、フィールド名や入力欄を理解して操作する仕組みです。ですからHTML情報が無くても、画面の見た目と文脈から判断できますよ。

\n

\n

\n

田中専務
\n

なるほど。これって要するに、ルールを細かく書き直す代わりにAIに学習させて判断させるということ?現場の担当者が都度ルールを直す必要が減る、と理解して良いですか。

\n

\n

\n

AIメンター拓海
\n

素晴らしい着眼点ですね!その理解でほぼ合っていますよ。大規模言語モデル(LLM)は人間の言葉での指示や画面説明を元に次の操作を推測しますし、視覚モデルがどの要素を操作すべきかを特定します。結果として現場が行う微調整は減り、運用負荷が軽くなります。

\n

\n

\n

田中専務
\n

なるほど。しかし例外やミスは完全には無くならないだろうと思います。失敗時の対応フローはどうなるのか、運用現場での設計は難しそうです。

\n

\n

\n

AIメンター拓海
\n

その不安も正しいです。論文では失敗検知とステータス報告の仕組みが組み込まれているとされており、例えば患者登録の例では「登録成功」や「入力不備」を返すことで人間が介入するタイミングを明確にしています。つまり完全自動化を盲信せず、人間とAIの協働設計を前提にしている点が肝心です。

\n

\n

\n

田中専務
\n

分かりました。では最後に、私の言葉で整理します。これは要するに「画面ごとの細かなルールを人がいちいち作る代わりに、言葉と画像で学習したAIが判断して入力し、問題があれば報告して人が介入する」システム、という理解で合っていますか。

\n

\n

\n

AIメンター拓海
\n

素晴らしいまとめです!その理解で間違いありませんよ。これから具体的に試す際には、小さな業務からトライして成功基準と介入ポイントを定義することを一緒に設計していきましょう。

\n

AIBRプレミアム

関連する記事

AI Business Reviewをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む