農業AIの画像認識完全ガイド|病害虫診断・収量予測・自動収穫の技術選定とROI試算【2026年最新】
農業AIの画像認識を意思決定順で解説。病害虫診断・雑草検出・収量予測の技術選定マトリクス、診断アプリ5種比較、規模別ROI試算3シナリオ、補助金マッピング、農林水産省・農研機構の一次ソース付きで網羅。

農業AIの画像認識は、ドローン・スマートフォン・圃場カメラで撮影した作物画像をディープラーニングで解析し、病害虫の早期発見、雑草の検出、収量・品質の予測、自動収穫、等級判定を実現する技術です。農林水産技術会議が主導した戦略的プロジェクト研究では、トマト・イチゴ・キュウリ・ナスの病害虫画像約70万枚を学習させ、80%以上の精度で病害虫を判別するAIが開発されました(出典: 農林水産技術会議「人工知能を活用した病害虫診断技術」)。さらにオプティムのピンポイント農薬散布テクノロジーは、兵庫県篠山市の大豆栽培でハスモンヨトウ防除の農薬使用量を特定条件下で90〜99%削減する実証実績を持ちます(出典: オプティム公式テクノロジーページ)。本記事では、農業経営者・農業法人・JA・地域DX担当者に向けて、画像認識AIの仕組み、5つの主用途、技術選定マトリクス、代表事例6社の一次ソース付き深掘り、診断アプリ5種の比較表、規模別ROI試算3シナリオ、補助金マッピング、7ステップ導入マップまでを意思決定順で体系化します。
この記事で分かること
- 農業AIの画像認識が「何ができて、何ができないのか」と農業特有の3つの難しさ
- 病害虫・雑草・収量予測・自動収穫・等級判定の5用途を支える技術タスクとモデル選定の根拠
- 農研機構WAGRI、オプティム、Blue River Technology / John Deereなど事例6社の定量データ(一次ソース付き)
- レイミー・EXPESTS・クボタKSAS・アグリショットSCAN・ガーデンドクターAIの病害虫診断アプリ徹底比較
- 個人農家10〜100万円 / 中規模法人100〜500万円 / 大規模法人500〜3,000万円の規模別ROI試算
- スマート農業技術活用促進法・IT導入補助金・みどりの食料システム戦略・自治体DX補助金の対応マップ
- 「精度が本番でなぜ落ちるか」失敗事例ベース解説と、普及員・防除所との役割分担設計
1. なぜ今、農業に画像認識AIなのか — 3つの構造課題
農業AIの画像認識を理解する前提として、なぜ「経験と勘」では立ち行かなくなったのかを押さえます。日本農業は労働力・気候・収益の3課題が同時に進行している領域であり、画像認識AIはこの3つの交点に効きます。
1.1 労働力不足と高齢化の深刻化
農林水産省の統計によれば、基幹的農業従事者の平均年齢は約68歳、農業就業人口は過去20年間でおおむね半減しています。後継者が見つからずに廃業する農家は増え、耕作放棄地の面積は拡大の一途です。この構造課題に対する解決の方向性は2つあります。「少ない人手で従来と同等以上の生産性を実現するための省力化」と、「ベテラン農家の栽培ノウハウをデータとして記録・継承する仕組みの構築」です。画像認識AIはこの両方に直接効く技術であり、農林水産省も「農業DX」を旗印に画像診断技術の社会実装を推進しています(出典: 農林水産省「農業DX事例紹介(13) AI病害虫雑草診断アプリを活用して生産性を向上」)。
1.2 気候変動とパターン崩壊
異常気象の頻発により、長年の経験と勘に基づく栽培管理が通用しない状況が広がっています。高温障害、ゲリラ豪雨による圃場の冠水、日照不足による生育遅延、暖冬による害虫の越冬。過去のパターンが当てはまらない条件が増えるほど、リアルタイムの画像データに基づいた精密な栽培管理の必要性が高まります。画像認識AIは、ドローン・固定カメラ・スマホで撮影した「現在の作物の見た目」から、人の目では捉えにくい異常の予兆を抽出する装置として機能します。
1.3 収益構造の限界とノウハウ継承
農産物の価格は市場の需給に左右されやすく、生産コストの上昇を価格に転嫁しにくい構造があります。さらに、熟練農家の引退と同時に「どのタイミングで、どこに、どれだけの農薬を散布するか」といった暗黙知が失われていく問題があります。画像認識AIは、過去の判断データを学習データとして残し、後継者や新規就農者に再現可能な形で渡せる点で、収益とノウハウ継承の両面に資します。
1.4 画像認識AIが解決する「3課題のクロスポイント」
画像認識AIは、「省力化(労働力課題)」「精密化(気候変動課題)」「ノウハウ継承(収益課題)」の3つに同時に効く数少ない技術です。たとえば病害虫の自動診断アプリは、巡回時間を圧縮し(省力化)、撮影画像のメタデータと連動して防除判断の根拠を残し(ノウハウ継承)、防除タイミングを最適化することで農薬使用量を削減します(精密化)。本記事ではこの3課題の交点で何ができるかを、5つの主用途と6社の事例を通じて整理していきます。
2. 農業AIの画像認識とは — 仕組みと農業特有の難しさ
農業AIの画像認識とは、農作物・圃場・害虫・雑草などを撮影した画像をディープラーニング(深層学習)に基づくモデルで解析し、種類判別・領域抽出・数えあげ・異常検出などを自動化する技術です。本章では基礎となるディープラーニングの仕組み、画像認識3タスクの違い、そして農業特有の難しさを整理します。
2.1 画像認識AIの基本:CNN/ディープラーニング
画像認識AIの中核を担うのは、畳み込みニューラルネットワーク(Convolutional Neural Network、CNN)と呼ばれるニューラルネットワークの一種です。CNNは画像のピクセル配列からエッジ・テクスチャ・形状・色のパターンを階層的に抽出し、最終的に「何が写っているか」を分類したり、「どこに写っているか」を特定したりします。2012年以降、ImageNet大規模画像認識競技で深層学習モデルが従来手法を大きく上回って以来、農業を含むあらゆる業界で画像認識AIの実用化が進みました。
近年は、CNNを継承しつつ視野(受容野)をグローバルに広げたVision Transformer(ViT)や、テキストと画像を同じ意味空間に埋め込むマルチモーダルモデル(CLIP系)も普及しています。農業向けの商用アプリではCNN系(EfficientNet、ResNet、YOLO、U-Netなど)が主流ですが、研究レベルではViTやマルチモーダルが急速に取り入れられています。
2.2 画像認識の3タスク(分類・検出・セグメンテーション)
画像認識AIを農業の課題に当てはめるには、「3つの基本タスク」のうちどれを使うかを正しく選ぶ必要があります。
- 画像分類(Image Classification): 1枚の画像に対して「何が写っているか」をラベル付けする。例: 「うどんこ病」「健全」を判別。
- 物体検出(Object Detection): 画像中に複数存在する物体の「位置」と「種類」を矩形(バウンディングボックス)で特定する。例: ピーマンの果実を1個ずつ検出する。
- セマンティックセグメンテーション(Semantic Segmentation): 画像のピクセル1つ1つを「これは雑草」「これは作物」のようにクラス分けする。雑草と作物が密接している雑草除去や、葉の病斑の輪郭抽出に向く。
この3タスクの違いは技術選定の根拠そのものです。たとえば「葉に病斑があるかどうか」だけ知りたいなら画像分類で十分ですが、「葉のどの部分にどの形状の病斑があるか」を可視化したいならセグメンテーションが必要になります。後述§4の技術選定マトリクスで、農業のどの用途にどのタスクが向くかを整理します。
2.3 農業特有の難しさ(ドメインシフトの宝庫)
画像認識AIは製造業の外観検査でも医療の画像診断でも実績を積んできましたが、農業は他産業と比較して「ドメインシフト」(学習時と本番時のデータ分布の差)が極端に大きい領域です。具体的には次の5点が精度を押し下げます。
- 光量と時刻: 朝・昼・夕方で同じ葉でも色味が大きく変わる。雨後・曇天・順光・逆光の違いも無視できない。
- 角度と倍率: スマホの撮影距離が10cmか50cmかで葉の見え方が変わり、学習時の標準から外れる。
- 季節・地域・品種: 北海道のじゃがいもと九州の里芋では葉の質感も病害虫の種類も異なる。学習データが偏れば本番で精度が落ちる。
- 被写体の混在: 圃場の画像には作物・雑草・土壌・道具・人影などが混在する。製造ラインの外観検査のように「無地の背景に対象物だけ」というシンプルな状況はほぼ存在しない。
- 生育段階の連続性: 同じ作物でも幼苗・生育期・収穫期で見た目が大きく変わる。学習データに偏りがあると特定段階だけ精度が落ちる。
この難しさは農業AIを導入する上で必ず織り込むべき前提であり、後述§8で「精度が本番でなぜ落ちるか」を失敗事例ベースで掘り下げます。
2.4 一般的な画像認識タスクとの違い
製造業の外観検査が「±0.1mm精度・無地の背景・固定の照明」を前提にできるのに対し、農業の画像認識は「屋外環境・複雑な背景・季節変動」の3拍子が揃った最難関領域です。だからこそ、後述する公的研究機関主導の大規模データセット構築や、現場での再学習・運用設計が品質を左右します。
3. 画像認識AIで何ができるのか — 5つの主用途
農業の画像認識AIで現時点で商用化・実証されている用途は、大きく5つに分類できます。「病害虫の早期発見」「雑草の検出と農薬散布」「収量・品質予測」「自動収穫ロボット」「等級判定・選果」です。各用途について、代表的な技術と定量データを整理します。
3.1 病害虫の早期発見と種類判別
最も商用化が進んでいる用途は病害虫診断です。農林水産技術会議が主導した「人工知能を活用した病害虫診断技術の開発」では、農研機構と全国23府県(岩手・茨城・新潟・岐阜・広島・宮城・栃木ほか)、法政大学、名古屋大学、NTTデータグループ、日本農薬、ChillStackなどが連携し、トマト・イチゴ・キュウリ・ナスの病害虫画像を約70万枚収集して80%以上の精度を達成しています(出典: 農林水産技術会議「人工知能を活用した病害虫診断技術」)。
成果物の一つである「AI病虫害画像診断システム」は、農業データ連携基盤WAGRIのAPIとして2021年3月から提供開始されました。葉表病害で診断精度72.6〜89.2%、虫害で82.1〜85.4%という具体的な性能値が公表されており、民間企業はこのAPIを利用して自社のスマホアプリや業務システムに病害虫診断機能を組み込めます(出典: 農研機構「AI病虫害画像診断システムをWAGRIで提供開始」2021年3月15日)。
このAPIは技術的にはCNN系の物体検出と画像分類を組み合わせた構成で、1種類あたり数百〜約6,000枚の診断付き学習画像で訓練されています。後述する診断アプリの多くはこのWAGRI-APIや独自データセットを基盤に動作しています。
3.2 雑草の検出とピンポイント農薬散布
2つ目の用途は、雑草を画像認識で検出し、ピンポイントで除草剤や農薬を散布する技術です。圃場全体に一律散布する従来の方式と比べて、農薬使用量を劇的に削減できます。
国内ではオプティムが「ピンポイント農薬散布テクノロジー」を実用化しており、ドローンで圃場を上空から撮影し、撮影画像をディープラーニングで解析して病害虫や雑草が発生している場所を特定、必要な場所にのみ自動操縦のドローンで農薬を散布します。兵庫県篠山市の大豆栽培ではハスモンヨトウ防除において、地域で定められた慣行栽培の農薬使用量に対し90〜99%の削減に成功しています(出典: オプティム「テクノロジー」公式 / オプティム「ピンポイント農薬散布・施肥テクノロジーに関する基本特許を取得」2018年10月23日)。
海外ではJohn Deere傘下のBlue River Technologyが「See & Spray」を商用化しており、ライブ画像から作物と雑草を識別してターゲットだけに除草剤を散布します。アイオワ州立大学エクステンションが5圃場・415エーカーの大豆畑で実施した独立試験では、除草剤使用量が43.9〜90.6%削減(平均76%)、エーカー当たり約15.7ドルの薬剤コスト削減という結果が公表されています(出典: Iowa State University Extension and Outreach「Precision Spraying Technology」2024年8月)。John Deere公式情報では2024年に農家全体で平均59%の除草剤節減、推定800万ガロンの節減を実現したと報告されています(出典: John Deere「See & Spray Herbicide Savings」)。
雑草と作物の判別は、形状・色・質感が似ている個体が混在するためセマンティックセグメンテーション(U-NetやDeepLab系)が主流のアプローチになります。
3.3 収量・品質予測
3つ目の用途は、収量と品質の予測です。ドローン空撮画像や圃場カメラの定点画像から、果実の数・サイズ・色を計測することで、収穫前に収量を見積もったり、出荷計画を最適化したりできます。
スカイマティクスの「葉色解析サービス いろは」は、ドローンで撮影した農地画像をクラウド上でAI解析し、作物の生育状態や病害虫・雑草の発生箇所を診断・記録します。水稲・キャベツ・レタス・ブロッコリーなど多様な作物の生育診断に対応しています(出典: マイナビニュース「ドローンとAI画像解析技術で農業をDXするスカイマティクス」2021年10月25日)。
収量予測は技術的には「果実の物体検出」+「物体数や面積から収量への回帰」を組み合わせた構成が典型で、ドローンの撮影頻度(週1回〜月1回)とカメラの解像度設計が精度を左右します。
3.4 自動収穫ロボット(果実検出)
4つ目の用途は、画像認識で果実を1個ずつ検出し、ロボットアームで自動収穫する技術です。AGRISTは画像認識AIを搭載したピーマン自動収穫ロボットを開発し、夜間運転を含む長時間稼働を目指した実証を進めていると報じられています。inahoはアスパラガスの自動収穫ロボットを提供しており、画像認識で適期の個体を選別して収穫します(出典: AI Market「inaho株式会社のAI製品・サービス一覧」。各社の最新仕様・対応作物・サービス提供地域は公式サイトで確認してください)。
果実検出は技術的にはYOLO系の物体検出やMask R-CNNが向きます。葉と果実が同色(緑のピーマンや緑のトマトなど)の場合はセグメンテーション併用が必要で、夜間照明下では赤外線併用や追加学習が前提です。自動収穫ロボットの導入には、ハウス内のレール敷設や均一な栽培管理が前提となるため、後述する規模別ROI試算ではシナリオC(大規模法人)の選択肢になります。
3.5 等級判定・選果(外観検査AIの農業応用)
5つ目は、収穫後の等級判定・選果工程の自動化です。製造業の外観検査AIで培われた画像分類モデル(EfficientNet、ResNet、ViTなど)を、農産物の傷・形・色・大きさの判定に転用するパターンが急増しています。トマト・ピーマン・イチゴなどでは選果機メーカーが画像認識AIを組み込んだ機種を販売しており、人件費削減と等級判定のばらつき低減を同時に実現しています。等級判定は学習データさえ揃えば製造業の外観検査と同じ技術スタックで構築できるため、農業の中では比較的導入難度が低い用途です。
4. 用途×技術タスク×モデルの選定マトリクス
画像認識AIを「一括りにディープラーニング」と語ると、現場のミスマッチが起こります。用途ごとに必要な技術タスクと代表モデル系統を整理しておくことで、ベンダー選定や自社学習の意思決定が大きくぶれにくくなります。本マトリクスは農業現場での意思決定者がベンダーと対話する際の「共通言語」として活用してください。
4.1 マトリクス表(7用途×6項目)
| 農業タスク | 技術タスク | 代表モデル系統 | 必要データ量の目安 | 精度水準の例 | 商用化レベル |
|---|---|---|---|---|---|
| 病害虫の種類同定 | 画像分類 / 物体検出 | EfficientNet / YOLO系 | 病害1種あたり数百〜数千枚 | 80〜95% | 商用化済 |
| 葉病斑の領域特定 | セマンティックセグメンテーション | U-Net / DeepLab | 数千枚(ピクセル単位アノテ) | IoU 60〜85% | 研究〜PoC |
| 雑草と作物の判別 | セマンティックセグメンテーション | U-Net / Mask R-CNN | 数千枚 | mIoU 70〜90% | 商用化済(See & Spray) |
| 果実の検出・数えあげ | 物体検出 | YOLO / Faster R-CNN | 数千枚 | mAP 70〜90% | 商用化(収量予測) |
| 等級・品質判定 | 画像分類 | EfficientNet / ViT | 等級ごと数百〜千枚 | 80〜95% | 商用化済(選果機) |
| 異常株検出 | 異常検知 / 物体検出 | One-class CNN / YOLO | 正常データ大量 | 83%(農研機構実証) | PoC〜商用初期 |
| 衛星画像の植生指数 | セグメンテーション + 数値解析 | U-Net + NDVI | 衛星画像セット | 用途依存 | 商用化済 |
※ 精度水準は代表的な公表値・公的実証値を例示しており、自社圃場での実測値は撮影条件や品種により変動します。
4.2 病害虫=物体検出(YOLO系)が向く理由
葉の上に「アブラムシが何匹いるか」「うどんこ病の斑点が何箇所あるか」を数えるタスクは、複数の小さな対象を1枚の画像から特定する必要があるため物体検出が向きます。YOLO(You Only Look Once)系は推論速度が速くスマホでも動作するため、現場リアルタイム診断のアプリ実装に多く採用されています。
4.3 雑草=セマンティックセグメンテーション(U-Net系)が向く理由
雑草と作物が密生する圃場では、矩形のバウンディングボックスでは雑草と作物を分離できません。ピクセル単位で「これは作物・これは雑草」と分けるセマンティックセグメンテーションが向きます。U-Netは医療画像のために開発されたモデルですが、農業の雑草検出にも広く転用されています。
4.4 収量予測=物体検出+回帰の組み合わせ
「ピーマンが何個ついているか」をYOLOで数え、過去の収量データとの相関で「何kgになるか」を回帰する2段構成が一般的です。果実が葉の陰に隠れる前提があるため、検出精度の上限と回帰モデルの誤差の両方を把握しておく必要があります。
4.5 自社学習が必要なケースと、API利用で済むケース
すべての農業AIで自社学習が必要なわけではありません。次のように切り分けるのが実務的です。
- API利用で済むケース: トマト・キュウリ・イチゴ・ナスの主要病害虫(WAGRI-APIが対応する作物)、汎用的な等級判定。
- 追加学習が必要なケース: 自社品種が学習データに含まれていない、独自の栽培方式(高設栽培・養液栽培など)、独自の病害(地域特有・新発生)。
- 完全自社学習が必要なケース: 海外でしか商用展開のない作物、新規参入の特殊作物、品種改良中の研究用途。
実務の出発点としては、まず公的APIや商用アプリで7〜8割の精度を確保し、不足分を自社撮影画像で追加学習(ファインチューニング)するハイブリッド構成が、コスト効率と精度のバランスで最も現実的です。
5. 代表事例6社の深掘り(一次ソース付き)
ここからは画像認識AIを実装している代表的な6つの取り組みを、一次ソースを引用しながら定量的に深掘りします。自社の規模・作物・課題と照らし合わせて、参考になる事例を選んでください。
5.1 農研機構「AI病虫害画像診断システム」(WAGRI / 2021年)
農研機構が2021年3月にWAGRI(農業データ連携基盤)で提供を開始した「AI病虫害画像診断システム」は、トマト・キュウリ・イチゴ・ナスの病害虫を画像から自動判別するAPIです。葉表病害の診断精度は72.6〜89.2%、虫害は82.1〜85.4%と実運用に十分な水準を確保しています(出典: 農研機構「(研究成果) AI病虫害画像診断システムをWAGRIで提供開始」2021年3月15日)。
このシステムは、1種類あたり数百〜約6,000枚の診断付き学習画像で訓練されており、WAGRI利用会員を対象に公開後1年程度の期間は無償で提供されました。民間事業者はこのAPIを呼び出すことで、自社のアプリやWeb画面に病害虫診断機能を実装できます。後述する商用アプリの多くはこのAPIをベースにしています。
5.2 農研機構「ばれいしょ異常株検出支援システム」(2023年、精度83%)
農研機構種苗管理センター・農業情報研究センター・北海道農業研究センター・シブヤ精機などが2023年10月31日に発表した「ばれいしょ異常株検出支援システム」は、自走式の圃場管理車両に搭載されたカメラと処理装置で、最大6畦の異常株を自走しながら検出する仕組みです(出典: 農研機構「AIを活用した『ばれいしょ異常株検出支援システム』の開発」2023年10月31日)。
検出精度は1回あたり83%という目標値に対し、「トヨシロ」品種の撮影画像を用いた検証で目標を達成しています。検出結果は音と画像で追従する作業者に通知され、抜き取り作業が効率化されます。ばれいしょの異常株(ウイルス病株など)の発見は種子じゃがいもの品質維持に直結する重要工程で、従来は熟練作業員の目視判別に依存していました。画像認識AIが熟練工の負担を大幅に減らした典型例です。
5.3 オプティム「ピンポイント農薬散布」(大豆90〜99%、兵庫県篠山市)
オプティム(OPTiM)の「ピンポイント農薬散布テクノロジー」は、ドローンで圃場を上空から撮影、画像から病害虫・雑草を検出し、必要な場所にのみ自動でドローンが農薬を散布する一連のシステムです。
特に注目されるのは大豆栽培での実証実績です。兵庫県篠山市地域で定められた慣行農薬使用量と比較して、ハスモンヨトウを中心とした害虫に対する農薬使用量を90〜99%削減することに成功しています(出典: オプティム「テクノロジー|ピンポイント農薬散布とピンポイント施肥」公式 / オプティム公式プレスリリース「ピンポイント農薬散布・施肥テクノロジーに関する基本特許を取得」2018年10月23日)。
この技術はSORACOMやKDDIなど通信事業者とも連携が進んでおり、ドローン操縦・画像解析・農薬散布をワンストップで提供する「ピンポイントタイム散布」サービスとして展開されています。なお「90〜99%削減」は特定の地域・特定の作物・特定の害虫における条件下での実証値であり、すべての作物・害虫で同等の削減が保証されるわけではない点に注意が必要です。
5.4 スカイマティクス「葉色解析サービス いろは」(ドローン×多作物)
スカイマティクスが提供する「いろは」は、ドローンで撮影した農地画像をクラウドにアップロードし、AIで葉色解析・生育状態・病害虫・雑草の発生箇所を診断・記録するサービスです。水稲・キャベツ・レタス・ブロッコリーなど多様な作物に対応しており、ドローンを使った収量予測の取り組みでも参照されています(出典: マイナビニュース「ドローンとAI画像解析技術で農業をDXするスカイマティクス」2021年10月25日)。
「いろは」の特徴は、撮影から解析・診断レポートまでをクラウド完結で提供する点です。農家はドローン撮影さえできれば、解析モデルを自前で持つ必要がなく、サブスクリプション型で利用できます。
5.5 AGRIST「ピーマン自動収穫ロボット」(夜間収穫)
AGRISTはピーマン自動収穫ロボットを開発する宮崎県発のスタートアップで、画像認識AIによる果実検出を中核技術にしています。ロボットがハウス内を移動し、画像認識で適期のピーマンを1個ずつ識別、ロボットアームで収穫します。技術的にはYOLO系の物体検出と、ハウスの構造に合わせた経路計画を組み合わせた構成で、夜間運転を含む長時間稼働を目指した実証が進められています(最新の仕様・対応作物はAGRIST公式サイトで確認してください)。
inaho株式会社はアスパラガスの自動収穫ロボットを提供しており、画像認識で適期のアスパラガスを選別して収穫します(出典: AI Market「inaho株式会社のAI製品・サービス一覧」。導入条件や対応作物の最新情報は公式サイトの一次情報を参照)。アスパラガスは収穫適期の幅が短く熟練判断が要求される作物のため、自動化のニーズが高い領域です。
5.6 海外: Blue River Technology × John Deere「See & Spray」
海外の代表事例は、John Deere傘下のBlue River Technologyが開発した「See & Spray」です。トラクターやスプレイヤーにカメラを搭載し、走行中にリアルタイムで作物と雑草をコンピュータビジョンで識別、雑草にだけ除草剤を吹き付けます。
アイオワ州立大学エクステンションが5圃場・415エーカーで実施した独立試験では、除草剤使用量が43.9〜90.6%削減(平均76%削減)、エーカー当たり約15.7ドルの薬剤コスト削減という結果が公表されています(出典: Iowa State University Extension and Outreach「Precision Spraying Technology」2024年8月)。John Deereの公式情報では2024年に農家全体で約800万ガロンの除草剤節減、平均59%の削減を実現したと報告されています(出典: John Deere「See & Spray Herbicide Savings」)。
See & Sprayの示唆は、画像認識AIが「単発のアプリ機能」ではなく、農業機械そのものに組み込まれる時代に入っていることです。日本の大規模農業法人やJAが大型機械を導入する場合、画像認識AIが標準装備に近づくことを前提とした選定が必要になります。
6. 病害虫診断AIアプリ徹底比較
個人農家・中小法人が「明日から使える画像認識AI」として最も身近なのが、スマートフォン向け病害虫診断アプリです。本章では現時点で代表的な5アプリを比較表で整理し、選定の3軸を解説します。
6.1 比較表(5アプリ×7項目)
| アプリ名 | 提供企業 | 対応領域 | 診断ロジック | 農薬連動 | 専門家相談 | 料金 |
|---|---|---|---|---|---|---|
| レイミーのAI病害虫雑草診断 | 日本農薬 | 主要野菜・果樹 | 病害・害虫・雑草の3カテゴリ分類 | 農薬メーカー6社・約400剤と連動 | あり | 無料 |
| EXPESTS | ツナグ・アグリ | 多様な作物 | 写真から病害虫種類を特定 | 農業資材ECサイトと連携 | あり | 無料/有料 |
| クボタKSAS 病害虫雑草診断 | クボタ | 主要作物 | 画像から病害虫・雑草を診断 | KSASマーケットプレイス連動 | あり | KSAS会員向け |
| アグリショットSCAN | 公式情報を要確認 | 多様な作物 | LINEで撮影→数秒で診断 | 公式情報を要確認 | 公式情報を要確認 | 無料 |
| ガーデンドクターAI | 公式情報を要確認 | 野菜31種類・果樹12種類・花・観葉植物 | 写真から病害虫を判定 | 公式情報を要確認 | 公式情報を要確認 | 家庭園芸向け |
※ 仕様・対応作物・料金は2026年5月時点の公式情報に基づき、随時変更される可能性があります。最新情報は各公式サイトで確認してください。
6.2 レイミーのAI病害虫雑草診断(日本農薬)
日本農薬が提供する「レイミーのAI病害虫雑草診断」は、AIが「病害」「害虫」「雑草」を判別し、その生態と防除方法を解説する無料アプリです。診断結果はAIの自信度が高い順に表示され、カルテ式診断機能や診断結果保存機能を備えています。特定した病害虫雑草に対して有効な薬剤を表示する機能があり、農薬メーカー6社・約400剤の中から最適な選択を提案します(出典: 日本農薬「レイミーのAI病害虫雑草診断」公式)。
無料で導入のハードルが低く、農薬商品との連携が深いため、防除の意思決定までワンストップで完了させたい個人農家・中小法人に向きます。一方で、提供元が農薬メーカーであるという立ち位置上、農薬以外の選択肢(生物的防除や耕種的防除)の情報が薄い点は織り込んで使う必要があります。
6.3 EXPESTS(ツナグ・アグリ)
EXPESTSは「病害虫の種類がその場でわかる」をコンセプトにしたアプリで、撮影した画像から病害虫を診断し、購入アドバイスまで提供します。農業資材の購入サイトと連携しており、診断から農薬・資材の購入までスムーズに完結できる点が特徴です(出典: ツナグ・アグリ「病害虫診断EXPESTS」公式)。資材の購買行動と診断を一体化したい中小法人や農協系の利用に向きます。
6.4 クボタ KSAS 病害虫雑草診断
クボタが提供する「KSAS(クボタスマートアグリシステム)」のオプション機能として、病害虫雑草診断が組み込まれています。KSASは農機・営農・経営管理をひとつのプラットフォームで扱うシステムで、その中で画像認識による病害虫診断が機能します(出典: クボタKSASマーケットプレイス「AI診断で病害虫・雑草を診断!」)。クボタの農機を導入している農家にとっては、データ統合の観点でメリットが大きい選択肢です。
6.5 ガーデンドクターAI / アグリショットSCAN / その他
ガーデンドクターAIは野菜31種類から果樹12種類、花、観葉植物、庭木まで網羅し、家庭園芸向けに広く利用されています。商用農業よりは家庭菜園・小規模直売向けの選択肢です。アグリショットSCANはLINEを活用したAI病害虫診断アプリで、スマートフォンで撮影した作物の画像をLINEで送信するだけで数秒で診断結果が返ってきます(出典: 農業とITの未来メディア「みんなの農業広場 AIを活用した病害虫の画像診断アプリ」2024年5月30日)。LINEで完結する手軽さは、IT初学者の高齢農家にとって導入の心理的ハードルを下げます。
6.6 選び方の3軸(作物適合・農薬連携・サポート体制)
5つのアプリを比較する際の選定軸は次の3つに絞れます。
- 作物適合: 自分の主力作物が学習データに含まれているか。トマト・キュウリ・イチゴ・ナスはどのアプリも対応しているが、特殊作物(伝統野菜・果樹)は対応に差が出る。
- 農薬・資材連携: 診断後の防除アクションまでワンストップで終わらせたいなら、農薬メーカー連動(レイミー)または資材EC連動(EXPESTS)が便利。
- サポート体制: AI診断の精度には限界があるため、専門家・普及員への相談機能や、防除所への接続経路があるかどうかは判断品質に直結する。
注意点として、農林水産省はAI診断アプリの普及記事の中で「AIは間違えることもある」と限界に言及し、確定診断は都道府県の病害虫防除所などの専門家に相談することを推奨しています(出典: 農林水産省「特集 AI搭載 病害虫診断アプリを緒方湊さんが体験」)。また農研機構の公式リリースでも、葉表病害72.6〜89.2%・虫害82.1〜85.4%という精度レンジが公表されており、下限値を前提に運用判断する設計が現実的です(出典: 農研機構プレスリリース)。AIアプリは「専門家への相談を効率化する一次スクリーニング」と位置づけて運用するのが本来の使い方です。
7. 画像認識AIのメリットと、語られにくいデメリット
導入判断のためには、メリットだけでなく「実際に運用した際に頭を悩ませる」デメリットも事前に整理しておく必要があります。本章では5つずつ整理し、各デメリットへの実務的な打ち手を示します。
7.1 メリット5
- 省力化: 巡回・診断・除草・農薬散布などの工数を圧縮。AGRISTやinahoのような自動収穫まで進めば、夜間・無人運転による稼働時間の拡張も可能。
- 農薬使用量の削減: ピンポイント散布で大豆90〜99%(オプティム・特定地域条件下の実証値)、北米See & Sprayで平均76%(Iowa State 5圃場検証)といった大幅削減が実証されている。圃場・作物・害虫によって削減幅は変動するが、コスト削減と環境負荷低減を両立できる方向性は明確。
- ノウハウ継承: 熟練農家の判断(病害虫種・防除タイミング・収穫適期)が画像とラベルのペアとしてデータ化され、後継者・新規就農者・社員へ移管可能。
- 新規就農者支援: ベテランの目に頼らなくても、AIが初動の意思決定を支援。新規参入のハードルが下がる。
- 環境負荷低減: 農薬・肥料の最適投入は、みどりの食料システム戦略やGAP認証など環境配慮型農業の指標達成にも資する。
7.2 デメリット5
- 初期投資: ドローン本体100〜300万円、解析プラットフォーム月額数万円〜、ロボットは数百万〜数千万円。中小規模の単独投資は重い。
- データ品質: 学習データの偏り・撮影プロトコルの不統一・アノテーションの不整合が精度を直接押し下げる。
- 人材不足: 画像撮影の標準化、データ蓄積、ベンダー対話を担う人材が現場に少ない。
- 撮影条件依存: 光量・角度・倍率・季節・品種で精度が変動。学習時と本番時の分布シフトが起きやすい。
- 誤検知: 病害虫の見落としは経済損失に直結し、過検知は不要な防除を招く。AI診断の限界を理解しないまま運用するとリスク。
7.3 各デメリットへの打ち手
- 初期投資 → 補助金活用と段階的投資: スマート農業技術活用促進法・IT導入補助金・みどりの食料システム戦略・自治体DX補助金の併用(§10で詳述)。最初は無料アプリから始め、効果を確認してから投資を拡大する段階的アプローチが現実的。
- データ品質 → アノテーション外注とプロトコル整備: 専門アノテーション会社や農業大学との連携、撮影時刻・距離・角度を統一する撮影プロトコルの文書化。
- 人材不足 → 普及指導員・JA・農業大学校・地域DX担当との連携: 自前で抱え込まず、地域の専門人材ネットワークを活用する。
- 撮影条件依存 → 撮影プロトコルの標準化: 「同じ時刻・同じ距離・同じ角度」で撮影する運用ルールを定め、研修と振り返りで継続的に改善。
- 誤検知 → 普及員・防除所との二段確認: AIをスクリーニングに使い、最終診断と農薬選定は専門家に委ねるワークフローを設計する。
8. 画像認識AIの精度は本番でなぜ落ちるか — 失敗事例ベース解説
画像認識AIの導入で最も多い失敗は、「学習データセットでは90%の精度だったのに、実際の圃場では60%になってしまう」というドメインシフトです。本章ではよくある5つの精度低下要因と、それぞれの対策を整理します。
8.1 撮影条件のドメインシフト(光量・角度・倍率)
学習時に「晴天・正午・40cmの距離」で撮影された画像で訓練したモデルを、雨後の朝6時に20cmの距離で撮影した画像に当てると、ほぼ別の世界の被写体になります。光量・時刻・距離・角度の組み合わせが学習時の分布から大きく外れると、精度は一気に低下します。
打ち手は3つあります。第一に「撮影プロトコルの標準化」(時刻・距離・角度・解像度を固定)、第二に「データ拡張(Augmentation)」(学習時に明るさ・コントラスト・回転を意図的に揺らす)、第三に「現場画像での追加学習」(実際の運用画像で定期的に再訓練する)です。
8.2 アノテーション品質の一貫性問題
「これはうどんこ病、これはべと病」というラベル付け(アノテーション)が、複数の作業者でブレると、AIは「うどんこ病とは何か」を矛盾した情報で学んでしまいます。専門知識を持つ作業者が複数で同じ画像にラベルを付けた場合の一致率(Inter-annotator agreement)を測定し、85%以上を保つことが品質確保の目安です。アノテーションは農業大学・専門アノテーション会社・農研機構などへの外注も視野に入れるべきタスクです。
8.3 季節・地域・品種差(北海道のじゃがいも vs 九州のサツマイモ)
同じ「じゃがいも」でも、品種(トヨシロ・男爵・メークイン)と地域(北海道・関東・九州)で葉の質感や病害虫の種類が異なります。学習データが特定品種・特定地域に偏ると、別の品種・地域では性能が出ません。商用化されているWAGRI-APIや診断アプリでも、対応作物・対応地域が明示されているのはこのためです。自社が対応外の作物や地域で運用する場合は、追加学習が必須です。
8.4 普及員・JA・防除所との役割分担設計
画像認識AIは「最終判断者」ではなく「一次スクリーニング装置」と位置づけるのが本来の運用です。農林水産省はAI診断アプリの体験記事で「AIは間違えることもある」と限界に言及し、確定診断は都道府県の病害虫防除所などの専門家に相談することを推奨しています(出典: 農林水産省「AI搭載 病害虫診断アプリを緒方湊さんが体験」)。
このため、運用設計時には「AIが診断 → 農家が一次対応 → 普及員・防除所に確認 → 最終的な農薬選定」というフローを明文化することが品質と責任分界の両面で重要です。診断結果を共有しやすいクラウドや写真付きカルテ機能を持つアプリ(レイミー・EXPESTS)は、この二段確認のワークフローに馴染みやすい設計になっています。
8.5 公的情報の限界注記(農林水産省・農研機構の正式注意喚起)
WAGRI-APIや農研機構の発表でも、精度の幅(72.6〜89.2%や82.1〜85.4%)が明示されています。これは「平均89%」ではなく「条件によって72.6%まで落ち得る」というレンジを示しており、現場運用ではこの下限を前提に防除判断を組み立てる必要があります。アプリベンダーの宣伝資料で「精度90%」と書かれていても、本番圃場でこの数字が出るとは限らない点に注意してください。
9. 規模別ROI試算3シナリオ
「画像認識AIを導入したいが、自社の規模で本当に元が取れるのか」は導入判断の最大の論点です。本章では個人〜小規模、中規模、大規模の3シナリオで初期投資・年間ランニング・年間効果・回収期間を試算します。試算はあくまで目安であり、実際の効果は作物・地域・運用品質で変動します。
9.1 シナリオA: 個人〜小規模農家(〜2ha、初期投資 0〜10万円)
前提: スマートフォン保有、ドローンや圃場カメラは未導入の個人農家。 構成:
- 無料アプリ(レイミー、EXPESTS、アグリショットSCAN)+ 必要時に有料アプリ
- 普及員・JAへの相談窓口維持
コスト:
- 初期投資: 0〜10万円(スマホは既存、有料アプリのみ)
- 年間ランニング: 0〜5万円
年間効果:
- 農薬使用量5〜15万円削減(不要な予防散布の回避)
- 巡回時間20〜50時間削減
- 防除判断の意思決定時間短縮
回収期間: 0.5〜1年
補助金後の実質負担: ほぼゼロ(無料アプリ中心のため対象外も多い)
このシナリオの本質は「投資効果よりも判断品質の向上」です。意思決定の早さと正確さが上がることで、防除失敗による収量損失(数十万円〜数百万円)を回避できる効果が大きい。
9.2 シナリオB: 中規模農業法人(2〜20ha、初期投資 100〜500万円)
前提: 法人化済み、複数人で運営、機械化が一定進んでいる農業法人。 構成:
- 病害虫診断アプリ(複数アプリ併用)
- ドローン1〜2機(100〜300万円)
- 圃場固定カメラ(数台)
- ドローン解析プラットフォーム(年額数十万円)
コスト:
- 初期投資: 100〜500万円
- 年間ランニング: 30〜80万円(解析プラットフォーム、保守、操縦人員)
年間効果:
- 農薬使用量20〜30%削減(部分散布の効果)
- 巡回・防除工数50〜200時間削減
- 収量予測の精度向上による販路最適化
回収期間: 2〜4年
補助金後の実質負担: 初期投資の1/3〜2/3(補助金活用次第)
中規模法人はROIが最もシビアな層です。ドローン導入+アプリ運用までで足を止めず、運用プロトコルと撮影品質まで設計しないと、機材は揃ったが効果が出ないという「ハードウェア地獄」に陥ります。
9.3 シナリオC: 大規模法人・JA・自治体(20ha〜、初期投資 500〜3,000万円)
前提: 大規模法人・JA・自治体・農業ベンダーが画像認識AIを基幹システムとして導入。 構成:
- ピンポイント農薬散布ドローン(オプティム・スカイマティクス等)
- 自動収穫ロボット(AGRIST・inaho等、対象作物がある場合)
- 解析プラットフォーム+AIベンダー契約
- 自社学習用データ収集体制
コスト:
- 初期投資: 500〜3,000万円
- 年間ランニング: 100〜500万円
年間効果:
- 農薬使用量50〜99%削減(オプティム大豆事例水準)
- 労務50%削減(自動収穫×ピンポイント散布の重ね合わせ)
- 等級判定の自動化による選果コスト圧縮
回収期間: 3〜6年
補助金後の実質負担: 初期投資の1/2〜2/3(スマート農業技術活用促進法・自治体DX補助金等の活用次第)
大規模法人・JAの特徴は、「自社の運用データそのものが資産になる」ことです。複数年運用してデータが蓄積されると、独自AIへのファインチューニングが可能になり、競合他社が真似できない精度を得られます。データ整備への投資が長期的にもっとも効くシナリオです。
9.4 ROI試算の前提条件と注意
3シナリオはいずれも次の前提に立っています。
- 作物と害虫が学習データに含まれている(または追加学習の予算込み)
- 撮影プロトコル・運用ルールが整備される
- 普及員・防除所との二段確認体制がある
これらが整わない場合は、上記の年間効果が出ない、もしくは半減する可能性があります。導入前に「最低限こなすべき運用設計」を別途検討してください。なお試算は2026年5月時点の機材価格・サービス料金・公的補助金水準に基づきます。
10. 補助金マッピング表
画像認識AIの導入コストを下げる手段として、複数の補助金制度を組み合わせるのが定石です。本章では4つの主要制度を対比し、画像認識AI関連の対象範囲と採択ポイントを整理します。
10.1 補助金マッピング表
| 補助金 | 主管 | 対象 | 上限・補助率の目安 | 画像認識AI関連の対象範囲 | 採択ポイント |
|---|---|---|---|---|---|
| スマート農業技術活用促進法(生産方式革新実施計画) | 農林水産省 | 認定計画を持つ農業者・法人 | 制度内で複数枠 | スマート農業技術導入全般(ドローン・センサー・AI・自動収穫等) | 認定計画の論理性と地域連携 |
| IT導入補助金 通常枠 | 中小企業庁 | 中小企業・小規模事業者 | 年度ごとに区分・上限が変動 | クラウド型AI診断サービス・解析プラットフォーム | 業務プロセス改善の数値設計 |
| みどりの食料システム戦略 関連事業 | 農林水産省 | 環境配慮型農業を進める事業者 | 制度内で複数枠 | 農薬・化学肥料の使用量削減につながる画像認識AI | 環境負荷低減指標の達成度 |
| 都道府県・市区町村DX補助金 | 各自治体 | 地域による | 数十万〜数百万円 | 地域特性に応じた農業AI導入 | 地域課題との接続 |
※ 制度内容・上限額・補助率は年度ごとに変動します。最新の公募要領は各管轄機関の公式サイトで確認してください。
10.2 スマート農業技術活用促進法
2024年に成立した「農業の生産性の向上のためのスマート農業技術の活用の促進に関する法律(スマート農業技術活用促進法)」は、生産方式革新実施計画の認定を受けた農業者・法人に対し、税制・金融・補助金面の支援を行う枠組みです(出典: 農林水産省「スマート農業技術活用促進法」参考資料)。画像認識AIを含むスマート農業技術の導入が、この計画認定を通じて多数の支援対象になります。
10.3 IT導入補助金
中小企業・小規模事業者向けのIT導入補助金は、農業者にも適用可能で、クラウド型AI診断サービス・解析プラットフォームの導入を支援します。通常枠の補助額は導入するツールの業務プロセス数に応じて区分が分かれており、補助率も年度ごとに変動します。サブスクリプション型のサービスは継続的に経費化されるため、複数年の運用設計と組み合わせやすい補助金です。最新の補助上限・補助率・対象範囲はIT導入補助金 公式サイトで必ず確認してください。
10.4 みどりの食料システム戦略
農林水産省の「みどりの食料システム戦略」は、2050年までに化学農薬の使用量50%低減を掲げており、画像認識AIによるピンポイント散布は同戦略の中核技術と位置づけられています。関連事業を通じて、画像認識AIや精密農業技術の導入支援が複数用意されています。
10.5 都道府県・市区町村DX補助金
地域ごとに、農業DX・農業AI・スマート農業に特化した補助金が用意されています。都道府県・市町村の農政部門で公募情報を確認し、地域特性(特産品・条件不利地・後継者不足地域など)に応じて活用します。地域DX担当者との連携が、申請書の論理性と採択率の両方に直結します。
10.6 採択率を高める3つのポイント
- 数値設計: 「省力化XX時間/年」「農薬削減XX%」「収量向上XX%」を裏付けと共に明示する。本記事§9のROI試算3シナリオは、申請書の数値設計のテンプレートとして使えます。
- 地域連携: JA・農協・普及センター・大学・他農家との連携を申請書に盛り込む。単独申請より連携申請の方が採択率が高い傾向。
- 継続性: 1回限りの導入ではなく、「5年で運用を定着させる計画」を示すと評価が上がる。
詳細は DX・AI補助金完全ガイド も参照してください。
11. 7ステップ導入マップ
「自社で画像認識AIを導入するなら、何から始めればよいか」を、規模を問わず使える7ステップに整理します。失敗するPoCと成功するPoCの分岐条件も明示します。
Step 1: 課題特定(病害虫・雑草・収量・品質・収穫のどれがボトルネックか)
最初に解決すべきは技術ではなく課題です。「巡回時間が長すぎる」「特定病害で毎年収量が落ちる」「収穫期の人手が足りない」など、現場で困っていることを定量化します。課題が曖昧なまま機材を買うと「導入したが効果が分からない」という典型的な失敗に陥ります。
Step 2: PoC機材選定(無料アプリから)
課題が決まったら、最も投資の少ない選択肢から検証します。多くの場合、スマホ+無料アプリ(レイミー・EXPESTS・アグリショットSCAN)で1〜2週間試すだけで、自社作物との相性や運用負荷が見えてきます。
Step 3: 撮影プロトコル設計(角度・距離・時刻を固定)
無料アプリでも有料サービスでも、撮影プロトコルを定めるかどうかが精度の8割を決めます。「同じ時刻・同じ距離・同じ角度」で撮影するルールを定め、紙1枚のマニュアルで現場メンバーに共有します。これが整備されていないと、後で機材を増やしても効果は出ません。
Step 4: 1シーズン(または1サイクル)の効果検証
KPIを「農薬使用量」「巡回時間」「収量」「等級判定の一致率」など2〜3個に絞って測定します。検証期間は最低でも1シーズン(または栽培1サイクル)取り、季節変動・気象変動を織り込みます。1〜2週間の検証では結論が出せません。
Step 5: ドローン・IoTカメラへ拡張
シーズン検証で効果が確認できたら、ドローンや圃場固定カメラへ拡張します。投資額が一桁上がるため、補助金申請(次年度予算)と並行で進めるのが定石です。
Step 6: 補助金申請
§10の補助金マッピング表を参考に、自社が対象となる制度を組み合わせて申請します。スマート農業技術活用促進法、IT導入補助金、みどりの食料システム戦略、自治体DX補助金の併用も可能なケースがあります。
Step 7: 大規模化(ピンポイント散布・自動収穫・自社学習)
最終ステップは、ピンポイント農薬散布や自動収穫ロボットへの移行、または自社学習による独自AI構築です。ここまで進むのはシナリオC(大規模法人・JA)が中心になります。
失敗するPoCと成功するPoCの分岐条件
| 観点 | 失敗するPoC | 成功するPoC |
|---|---|---|
| 課題定義 | 「AIを使ってみたい」が起点 | 「巡回時間を月20時間削減したい」が起点 |
| 機材選定 | 高額機材から開始 | 無料アプリから検証開始 |
| 撮影プロトコル | 個々のメンバー任せ | 紙1枚でルール文書化 |
| 検証期間 | 1〜2週間で結論 | 1シーズン以上で結論 |
| 体制 | 1人が抱え込む | 普及員・JA・大学と連携 |
12. オープンデータと自社学習の可能性
画像認識AIの精度を引き上げる最大のレバーは「データ量」と「データ品質」です。本章ではオープンデータの活用と自社学習の判断軸を解説します。
12.1 農林水産省70万枚オープンデータの利用
農林水産省戦略的プロジェクト研究推進事業「AIを活用した病害虫診断技術の開発」で収集されたトマト・キュウリ・イチゴ・ナスの病害虫被害画像(約70万枚のうちの一部)は、オープンデータとして公開されています。利用範囲・ライセンス条件は提供元の最新規約を必ず確認してください(出典: 農林水産技術会議「人工知能を活用した病害虫診断技術」)。商用AIサービスのベンダーや、自社学習を検討する大規模法人にとっては最初に検討すべきデータソースです。
12.2 PlantNet / PlantVillage(海外オープンデータ)
海外の大規模オープンデータとして、PlantVillage(多作物・多病害をカバーする画像データセット)やPlantNet(植物識別を目的とした市民科学プロジェクトのデータ)が代表的です。日本の作物・品種はカバー率が低いものの、汎用的なベースモデルの事前学習には十分活用できます。
12.3 自社学習が必要な3パターン
オープンデータや商用APIで賄えない場合の追加学習・自社学習が必要なケースは、典型的に次の3つです。
- 対象作物が学習データに含まれていない(伝統野菜・地域特産品・新品種)
- 栽培方式が特殊(高設栽培・養液栽培・植物工場)
- 新規・地域特有の病害虫(公的データセットに未収録)
12.4 アノテーションコストの目安
アノテーション(画像へのラベル付け)コストは、画像1枚あたり数十〜数百円が相場です。物体検出やセグメンテーションは画像分類より高単価で、複数アノテーターの一致率を取るとさらにコストが乗ります。1万枚のデータセットを構築する場合、数百万円規模の予算を見込む必要があり、補助金申請と組み合わせて計画的に進めるのが現実的です。データ整備は、画像認識AIに長期投資する大規模法人・ベンダーの主戦場です。
13. よくある質問(FAQ)
Q1. 農業AIの画像認識とは何ですか?
農業AIの画像認識とは、ドローン・スマートフォン・圃場カメラで撮影した作物画像をディープラーニング(深層学習)で解析し、病害虫の早期発見、雑草の検出、収量・品質の予測、自動収穫、等級判定などを自動化する技術です。画像分類・物体検出・セマンティックセグメンテーションの3タスクを農業課題に組み合わせて使います。
Q2. 画像認識AIで何を判別できますか?
5つの用途で実用化されています。①病害虫の種類判別、②雑草と作物の判別(ピンポイント農薬散布)、③収量・品質予測、④自動収穫(果実の検出)、⑤等級判定・選果。本記事§3で各用途の代表事例と精度水準を整理しています。
Q3. 病害虫診断の精度はどれくらいですか?
代表的な公的システムでは、葉表病害で70%台後半から80%台、虫害で80%台前半の精度水準が公表されています(詳細な数値レンジは§5.1参照)。ただしこの精度は学習データセット内の条件下のもので、撮影条件(光量・角度・季節)により実圃場では低下する場合があります。確定診断は都道府県の病害虫防除所などへの相談が推奨されています。
Q4. 導入コストはいくらかかりますか?
規模により大きく異なります。個人〜小規模農家ならスマホ+無料アプリで0〜10万円、中規模法人でドローン込みなら100〜500万円、大規模法人・JAでピンポイント散布や自動収穫まで導入すると500〜3,000万円が目安です。本記事§9で3シナリオの内訳を試算しています。
Q5. 補助金は使えますか?
使えます。スマート農業技術活用促進法(生産方式革新実施計画)、IT導入補助金、みどりの食料システム戦略関連事業、都道府県・市区町村のDX補助金などが画像認識AIの導入対象になります。各制度の補助上限・補助率は年度ごとに変動するため、最新の公募要領は各管轄機関の公式サイトで必ず確認してください。複数制度の併用も可能な場合があるため、地域DX担当やJAと連携して申請設計するのが現実的です。本記事§10で詳述しています。
Q6. 小規模農家でも画像認識AIを導入できますか?
可能です。スマートフォンの無料アプリ(レイミー、EXPESTS、アグリショットSCAN)から始めれば初期投資はほぼゼロで、農薬使用量や巡回時間の削減効果は規模に依存せず得られます。本記事§9のシナリオAが該当します。最初から大規模システムを導入するのではなく、無料アプリ→効果検証→必要に応じて拡張という段階的アプローチが鉄則です。
Q7. おすすめの病害虫診断アプリは何ですか?
主な選択肢は5つあります。①レイミーのAI病害虫雑草診断(日本農薬・無料・農薬連動)、②EXPESTS(ツナグ・アグリ・資材EC連動)、③クボタKSAS病害虫雑草診断(クボタ農機ユーザー向け)、④アグリショットSCAN(LINEで完結)、⑤ガーデンドクターAI(家庭園芸〜小規模向け)。選定軸は「作物適合・農薬連携・サポート体制」の3つです。本記事§6の比較表を参照してください。
Q8. AI診断と人による診断はどう違いますか?
AI診断は「短時間で多数の画像を一次スクリーニングする」のが得意で、人による診断は「文脈と例外を判断する」のが得意です。両者は対立するものではなく、AI診断を一次スクリーニングに使い、確定診断と農薬選定は普及員・防除所などの専門家に委ねる二段確認のワークフローが、品質と効率の両立に最適です。農林水産省と農研機構もこのワークフローを推奨しています。
14. まとめ — 画像認識AIが農業経営をどう変えるか
農業AIの画像認識は、労働力不足・気候変動・収益構造という日本農業の3つの構造課題に対し、「省力化」「精密化」「ノウハウ継承」の3軸で同時に効く数少ない技術です。本記事§5で深掘りした6社の一次データは、画像認識AIが研究段階を超えて実運用フェーズに入ったことを示しています。
一方で、画像認識AIは「精度100%の魔法」ではありません。撮影条件のドメインシフト、アノテーション品質、季節・地域・品種差といった農業特有の難しさを織り込んだ運用設計が、現場の精度を決めます。本記事で示した7ステップ導入マップ(§11)は、無料アプリからの段階的な検証を出発点にしており、規模を問わず再現可能です。次の一歩は次の3つに集約されます。
- 今日着手: §6のアプリ比較表を見て、自社作物に最適な1つを無料で試す
- 今シーズン: §11の7ステップに沿ってPoCを設計し、KPI(農薬使用量・巡回時間・収量)を測定する
- 来年度: §9のROI試算と§10の補助金マッピングを使って中規模投資の予算化を進める
koromoでは、農業AI・スマート農業を含む業界DXの戦略立案から、画像認識AIのPoC設計、補助金申請の数値設計、データ整備とアノテーション設計、自社学習用パイプライン構築までを伴走支援しています。「自社圃場で画像認識AIをどう導入すべきか」「どの補助金が自社に最適か」を具体的に相談したい方は、koromoの無料相談からお問い合わせください。
関連記事
agricultureクラスター内:
- スマート農業の導入ステップと補助金活用ガイド(本記事の上位ピラー)
- 農業DX補助金完全ガイド(農業特化の補助金詳細)
横断クラスター:
- DX・AI補助金完全ガイド(全業界横断の制度比較)
- 製造業IoT×AIガイド(製造業×画像認識・IoT基盤の事例)
- 予知保全AI完全ガイド(PoC設計方法論の参考)
- 生成AI業務効率化の事例集(ChatGPT病害虫診断との対比)


