378データ活用の取り組み(ユースケース2)

 以前、あるプロセス工場へ異常予兆検知のAIシステムを導入するため、フィージビリティースタディーをしたことがあります。工場が抱えていた問題は、日々の品質管理をしっかりやっているにも関わらず、年に1回程度大きな品質問題が起きているといった内容でした。製造している製品は、電子製品の基幹部品であるため、後工程のお客様すべてに迷惑をかけてしまうとのことでした。

 製造ラインは数十工程におよびます。各工程の管理項目(温度、圧力、電流など)はマニュアルレベルですが見える化がされています。基準値に対するオフセット、バラツキはリアルタイムにチューニングしていますが、工程間をまたぐ、多因子にかかわる問題であると人手では対応できないとのことです。AI技術で不良が出る前に予兆が見えるように、どうにかならないかといった依頼でした。

 データ活用の流れは、データ診断、収集、統合、分析、運用といった手順となります。重要なのはデータの診断です。データ診断は2つの作業があります。1つは現状で工場がどのようなデータを持っているかを調べるデータの棚卸と、もう1つが問題となっている事象の要因は何かを知見者が分析することです。(要因分析は特性要因図やFMEAといったツールを使うと便利です)

 このフィージビリティースタディーでは、知見者による要因分析で必要とされていたデータが十分にそろっていなかったため、実運用ができるまでの異常予兆精度を確保することができませんでした。現場では引き続き、データリッチ化に向けてデータの収集に取り組んでいます。

 上記の取り組み以前に、別の組立工場でSMTラインのチョコ停を削減するため、ビッグデータ分析をした経験があります。この工場はICT化が進んでおり、膨大な蓄積データを使ってリアルタイムに製造関連を「見える化」するシステムを構築していました。この膨大なデータをデータサイエンティストが専用ツールを駆使して分析し、チョコ停とチップ部材との間に相関関係があることを突き止めました。この後の真因分析でチップの中に形状的な異常があることが分かりました。

 上記2つの取り組みについて比べてみると、前者は現場の知見者の要因分析に基づいてデータを選択したのに対して、後者はデータを選定せず統計的視点でのみ分析を行った点が違います。膨大なデータがある場合には後者の様なビッグデータ分析することが可能であり、現場のノウハウ、知見から見出すことができない結果が得られるといった事を期待することができます。ただしかなりコストがかかります。

 人の知見によりデータを絞って分析するか、人の知見をあえて省き膨大なデータで分析するかは、分析目的と効果を考えて使い分けていく必要があります。

SHIMAMURA ENGINEERING OFFICE

ものづくりの普遍のテーマに取り組んできた生産技術者の備忘録です。 スマート工場に向けた自動化、IOT、AIの活用について記載しています。 ご相談は下記のシマムラ技術士事務所へ。 It describes Automation and IoT/AI for smart factories. For consultation, please contact the following office.

0コメント

  • 1000 / 1000