1. キラキラポイント✨ ● MAC演算(計算)だけじゃダメ🙅♀️ メモリとかも大事! ● 10種類のモデル(お手本)で実験済み💖 ● 実用的なアドバイス(設計のコツ) がゲットできる✨
2. 詳細解説 背景 スマホとか家電(かでん)とか、色んなものにAIが搭載(とうさい)される時代じゃん?🧐 でも、AIって計算量多いから、組み込みシステム(小さい機械)で動かすのは大変なの💦
方法 色んなAIモデルを使って、組み込みシステムで動かした時の時間とか、色んな要素を細かくチェックしたよ👀 MAC演算だけじゃなくて、メモリとか、色んな要素がどれだけ影響(えいきょう)するかを調べたんだって!
結果 MAC演算だけじゃ、推論時間(AIが答えを出す時間)を正確に予測できないことが判明🤯 ほかの要素もちゃんと考慮(こうりょ)しなきゃダメだってこと!
続きは「らくらく論文」アプリで
This study evaluates the inference performance of various deep learning models under an embedded system environment. In previous works, Multiply-Accumulate operation is typically used to measure computational load of a deep model. According to this study, however, this metric has a limitation to estimate inference time on embedded devices. This paper poses the question of what aspects are overlooked when expressed in terms of Multiply-Accumulate operations. In experiments, an image classification task is performed on an embedded system device using the CIFAR-100 dataset to compare and analyze the inference times of ten deep models with the theoretically calculated Multiply-Accumulate operations for each model. The results highlight the importance of considering additional computations between tensors when optimizing deep learning models for real-time performing in embedded systems.