4 分で読了
1 views

大規模データにおける連想分類器の分散化

(Scaling associative classification for very large datasets)

さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として
一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、
あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

田中専務

拓海先生、最近うちの若手が「連想分類器を導入すればいい」と騒いでおりまして、正直どこから手を付ければいいかわかりません。要するに何が変わるんですか。

AIメンター拓海

素晴らしい着眼点ですね!この論文は、大量データで扱いにくい『カテゴリデータの多さ』を前提に、連想分類器を分散環境で実用化する道筋を示していますよ。

田中専務

そこは具体的に言うと、現場のデータベースに入りきらないような大量の製造データでも使えるということですか。コスト対効果はどうなんでしょう。

AIメンター拓海

素晴らしい着眼点ですね!要点を3つで言うと、1) 計算を分散して実行するので処理時間が短縮できる、2) 抽出時に不要なルールを減らしてメモリ負荷を下げる、3) 最終的に複数モデルをまとめて精度を上げる、という設計です。

田中専務

その「不要なルールを減らす」というのが肝ですね。現場ではルールが爆発して使い物にならないことが多いのですが、具体的にはどうやって抑えるのですか。

AIメンター拓海

素晴らしい着眼点ですね!この論文ではCAP-growthという新しい抽出アルゴリズムを使い、ルールを抽出する段階で既に重要でないものを取り除く方式を採っています。言わば原材料の段階で不良を除く流れです。

田中専務

つまり、例えば何百万件の受注履歴から役に立つルールだけ先に絞る、と。これって要するに処理段階でムダを捨てるということ?

AIメンター拓海

その通りですよ!良いまとめですね。加えて、論文はApache Spark(Apache Spark、分散データ処理基盤)を前提に、メモリを多用して高速化する点を重要視しています。現場での応答性が改善されるのです。

田中専務

実運用を考えると、うちのIT部はSparkを使ったことがありません。導入コストや運用負荷はどの程度を見ればいいですか。

AIメンター拓海

素晴らしい着眼点ですね!現実的な視点で言えば、まずは小さいクラスターでPoCを回し、メモリ要件と処理時間を計測することです。そして学習はバッチ処理が主なので夜間バッチ化で負荷を平準化できますよ。

田中専務

なるほど。最初は小さく始めて効果が見えたら横展開する、と。最後にもう一つだけ、期待できる効果を端的に教えてください。

AIメンター拓海

素晴らしい着眼点ですね!期待効果は3点です。1) 高次元カテゴリデータから意味のある因果的ヒントを取り出せること、2) 分散処理で現場の応答時間とスループットが改善すること、3) ルールベースゆえに可読性が高く、現場への説明が容易になることです。大丈夫、一緒にやれば必ずできますよ。

田中専務

よくわかりました。要するに、CAP-growthで不要ルールを初期段階で削ぎ落とし、Spark上で分散学習して最後に多数決のようにモデルをまとめる――それで実運用のボトルネックを減らせる、ということですね。ありがとうございます、これなら部内で説明できます。

監修者

阪上雅昭(SAKAGAMI Masa-aki)
京都大学 人間・環境学研究科 名誉教授

論文研究シリーズ
前の記事
損失を考慮した近似推論によるベイズニューラルネットの実務的意義
(Loss-Calibrated Approximate Inference in Bayesian Neural Networks)
次の記事
非形式的数学記述を形式化するニューラル翻訳の第一歩
(First Experiments with Neural Translation of Informal to Formal Mathematics)
関連記事
音声と頸部表面加速度計信号からの声質分類に対する自己教師あり事前学習モデルの検討
(Investigation of Self-supervised Pre-trained Models for Classification of Voice Quality from Speech and Neck Surface Accelerometer Signals)
フェルミオンθ真空と長い首の残骸
(Fermionic θ Vacua and Long-Necked Remnants)
堅牢で対称的な四足歩行のための模倣と微調整によるモデル予測制御
(Imitating and Finetuning Model Predictive Control for Robust and Symmetric Quadrupedal Locomotion)
注意機構だけで十分である
(Attention Is All You Need)
スタイルと実質を分離する:異ジャンル間の著者帰属を改善するデータ選択と提示
(Separating Style from Substance: Enhancing Cross-Genre Authorship Attribution through Data Selection and Presentation)
畳み込みニューラルネットワークによる画像パッチ比較学習
(Learning to Compare Image Patches via Convolutional Neural Networks)
関連タグ
この記事をシェア

有益な情報を同僚や仲間と共有しませんか?

AI技術革新 - 人気記事
ブラックホールと量子機械学習の対応
(Black hole/quantum machine learning correspondence)
生成AI検索における敏感なユーザークエリの分類と分析
(Taxonomy and Analysis of Sensitive User Queries in Generative AI Search System)
DiReDi:AIoTアプリケーションのための蒸留と逆蒸留
(DiReDi: Distillation and Reverse Distillation for AIoT Applications)

PCも苦手だった私が

“AIに詳しい人“
として一目置かれる存在に!
  • AIBRプレミアム
  • 実践型生成AI活用キャンプ
あなたにオススメのカテゴリ
論文研究
さらに深い洞察を得る

AI戦略の専門知識を身につけ、競争優位性を構築しませんか?

AIBR プレミアム
年間たったの9,800円で
“AIに詳しい人”として一目置かれる存在に!

プレミア会員になって、山ほどあるAI論文の中から効率よく大事な情報を手に入れ、まわりと圧倒的な差をつけませんか?

詳細を見る
【実践型】
生成AI活用キャンプ
【文部科学省認可】
満足度100%の生成AI講座
3ヶ月後には、あなたも生成AIマスター!

「学ぶ」だけではなく「使える」ように。
経営者からも圧倒的な人気を誇るBBT大学の講座では、3ヶ月間質問し放題!誰1人置いていかずに寄り添います。

詳細を見る

AI Benchmark Researchをもっと見る

今すぐ購読し、続きを読んで、すべてのアーカイブにアクセスしましょう。

続きを読む