267 IoT AIを活用した品質改善(解説10)2版
㈱技術情報協会から書籍「工場・製造プロセスのIOT・AI導入と活用の仕方」が出版されました。その中の「プロセス系工場でのIOT/AIを活用した品質改善への取り組み」について執筆しましたので、数回に分けて解説したいと思います。今回は10回目です。
<抜粋:ビッグデータ分析による品質改善と違い>
2013年、当社ではビッグデータを活用してプリント基板実装工程におけるチップマウンタノ頻発停止、いわゆるチョコ停の改善に取り組んだことがある。当時、当社の製造現場ではICT化による膨大なデータが蓄積されており、これを活用して新たな知見を掘り起こすことで、費用をかけずに大きな効果を得ることが、製造部門の共通テーマとなっていた。そこで、現場にある各種データをサーバに集約してリアルタイムに「見える化」するシステムをすでに構築していた当社グループ工場にてトライアルを実施し、ものづくりにおけるビッグデータ活用の可能性を探った。
取り組み開始当初、この工場では1ライン1日平均数10分程度の頻発停止が発生していた。データ棚卸を行ったところ設備ログや部材、生産管理に関するデータの蓄積が確認され、その中には基板に実装されるチップ毎の加工条件、エラー履歴、検査結果が含まれていた、チップは基板1枚当たりに数100個搭載されており、収集したデータ量はチップ換算で数10万個レベルに及んだ。このデータを段階的に分類していくことで製造ライン停止の重要要因を絞り込み、また並行してエラー発生サンプルの観察による真因分析も実施した。その結果、頻発停止の原因の1つがチップの表面形状にあることを突き止めた。これは全頻発停止の原因の11パーセントに相当するものであった。
先述のモデル事例と本取り組みを比べてみると、加工の条件と結果の相関性を分析する点では同様であるが、前者は、現場の技術者の意見や経験を取り入れた要因分析に基づいて分析対象のデータを選定したのに対し、後者は、データを選定せず統計的視点のみで分析を行った点に違いがある。データの収集量が多い場合には後者のようなビッグデータ分析を選択することが可能であり、現場のノウハウや知見からはなかなか見出すことができない分析結果を期待知ることができる。一方、重要要因を抽出するまでには分析のリードタイムと工数がかかるといったデメリットがある。データ活用に取り組む際には、各々のアプローチの特徴を理解し目的に合わせて使い分けていく必要がある。
<解説>
当時バズワードになっていた「ビッグデータ」を使って分析を試みようと考え、データサイエンティストと協力してプロジェクトを立ち上げました。先入観、既成概念、様々な予見に左右されないように、現場の知見を入れることなく、データから見えてくるもののみで分析を進めることを方針としました。当時SMT設備が保有しているデータは稼働データ、エラーデータ、イベント情報などが主でした。対象となっていた工場は、データの管理が一元化され整理されていたこともあり、サイエンティストが要求する形式でデータを提供できていたと思います。
分析の結果、あるチップ部品の形状が当初想定していたものと違っていたのが原因でした。そのためロボットのエンドエフェクタ(吸着コレット)で安定して部品を把持できず、チョコ停が発生していたのです。一見、ビッグデータで分析したことで発見された事象のように見えますが、実は部品の形状などは工場側で事前に調査する必要があり、それを行っていなかったために明らかになった結果です。重要なのはビッグデータ分析、AI分析を実施する前に、当然明らかに原因の因子になるものは対処しておくか、その項目のデータは含めないようにする必要があります。分析には多くの時間と工数がかかります。
<ブログ№113の追記>
現場の知見を一切遮断して、データだけで相関を追究するやり方の魅力は、新たな発見があったり、新たな知見を獲得できたりする点にあります。上記の場合も、あるチップ部品とチョコ停との相関が明確になりました。しかし、データ分析はここまでであり、なぜ?はわかりません。実はデータ分性結果に基づいて、工学的な視点によるエンジニアリング分析を行います。
対象となる砂粒ほどのチップを電子顕微鏡で観察すると、直方体と思われていたチップがかまぼこ状であることが分かりました。また表面には細かな埃が付着しているものも観察できました。直方体を真空吸着するコレットでは十分な真空を保つことができず、把持ミスによるチョコ停が発生するといったことになります。
事前にものづくり部門において、工学的な視点で仮説を立てて論理的にその仮説を検証していけば、データ分析の必要はなかったのかもしれません。
0コメント