人工知能(AI)とは
項目 | レベル |
---|---|
検定出題数 | 極少(1問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | OK |
さらっと流してOKな部分。
人工知能をめぐる動向
探索・推論、知識表現、機械学習、深層学習
項目 | レベル |
---|---|
検定出題数 | 中(19問) |
検定難易度 | 低 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | おおよそOK |
情報量が多い割には出題数も少な目で難易度も低い。
逆説的に言うと落としてはいけない部分と言える。
探索木の構造にすることで、コンピュータが処理できる形式にすることが重要。
仕組みが分かると知性は感じられない。と感じるのがAI効果。
「積み木の世界」を例とされることが多い。
- STRIPS:ストリップス
- SHRDLU:シュルドュル
これも基本は探索木になる。
迷路の探索木に似ているが、「行動」と「結果」の連続した探索木となるが、局面が複雑化するタイプになると、それだけ膨大なツリーとなる。
推論、探索の時代は、基本、「初期状態」「行動」「結果」が明確であることをベースにしている。
後期に入るとモンテカルロ法の方な確率論が導入され始める。
第2次AIブーム初期は単純なパターンマッチで知識を表現しようとした。
しかし、その知識の獲得や管理に課題が出てきた。
それを解決するために意味ネットワークやオントロジーの研究が注目される。
オントロジーにより、意味ネットワークが構築され、人の知識に近いものが出来てきた。
第1次AIブームと比べると現実世界に対して影響を持ち始めた時期となる。
ディープラーニングの元となるニューラルネットワーク自体は第1次AIブーム時から存在していた。
バックプロパゲーションなどの学習方法、コンピュータの処理能力、学習するデータ量により一気に進展し、ブレイクスルーへ。
人工知能分野の問題
トイプロブレム、フレーム問題、弱いAI、強いAI、身体性、シンボルグラウンディング問題、特徴量設計、チューリングテスト、シンギュラリティ
項目 | レベル |
---|---|
検定出題数 | 少(4問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | おおよそOK |
基本的にはお約束的な問題が出るのみ。
テキスト、問題集をやっていれば問題ない。
知能、知性に至るのは多くの課題がある。
ゴールを「便利な道具」とするか「人間のパートナー」とするかでも大きく変わる。
解決していない問題はあるが、ディープラーニングにより解決した問題も多い。
シンギュラリティ(技術的特異点)はもうすぐ。
機械学習の具体的手法
代表的な手法、データの扱い、応用
項目 | レベル |
---|---|
検定出題数 | 極多(54問) |
検定難易度 | 高 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | 不足 |
出題数は最多の部分となる。
ただし、勉強し易い部分ともいえるので、ここで頑張って点を稼ぐ必要がある。
機械学習でも目的別にカテゴリ分けができる。(教師あり:回帰、分類、教師なし:クラスタリング)
ディープラーニングが流行りの世の中ではあるが、可能な限りシンプルな手法による解析が重要な場合を想定して、今回の手法を頭の片隅にでも置いておいた方が良い。
学習する際に学習結果を評価する必要がある。
単に正解率が高いが優秀とは限らず、間違い検知率が高いことが重要な場合もある。
G検定強化学習対策(概要編)
ディープラーニングの概要
ニューラルネットワークとディープラーニング、既存のニューラルネットワークにおける問題、ディープラーニングのアプローチ、CPU と GPU
ディープラーニングにおけるデータ量
項目 | レベル |
---|---|
検定出題数 | 少(7問) |
検定難易度 | 低 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | おおよそOK |
ここは流してOK。
- ニューラルネットワークを元にさらに隠れ層を増やしたディープニューラルネットワークが登場。
- しかし、隠れ層を増やしたことで勾配喪失や計算コストに課題が発生。
- 計算コストはCPUやGPUの発展に助けられた部分はある。
ディープラーニングの手法
活性化関数、学習率の最適化、更なるテクニック、CNN、RNN
深層強化学習、深層生成モデル
項目 | レベル |
---|---|
検定出題数 | 極多(46問) |
検定難易度 | 高 |
Web情報量 | 多 |
過去問、問題集だけで対応可? | 不足 |
「機械学習の具体的手法」に続いて多い部分。
G検定のメインの部分なので当然と言えば当然。
一番調べやすい部分なので学習はし易い。
- 勾配降下法で楽に誤差関数を0に近づける手法が主流になった。
- 活性化関数のバリエーションを増やすことで勾配を作りやすくした。
- 局所最適解や鞍点に陥らないような学習アルゴリズムが登場。
- さらに精度を高めたり、精度が上がることによるオーバーフィッティング抑制など手法自体も微調整される状況となった。
- 画像による物体認識は長年の課題の一つであり、それが解決しつつある。
- しかし、それには膨大な学習が必要となるが、公開されているネットワークも多い。
- 公開ネットワークに層を追加しファインチューニングすることで手早く高性能なネットワークが獲得できる。
- 時間の概念は本来であれば、微分積分の領域であるが、ニューラルネットワークでも過去、未来をデータとして持つことで表現可能
- LSTMの考え方が重要で、それらの組み合わせ方でRNNの発展形が出来る。
- 答えのない目的を持たせた強化学習とディープラーニングの組み合わせとして深層強化学習が存在。
- 生成タスクとして、何もないところからデータを生成する深層生成モデルが存在。(画像生成モデル)
強化学習特化記事
G検定強化学習対策(概要編)
ディープラーニングの研究分野
画像認識、自然言語処理、音声処理、ロボティクス (強化学習)、マルチモーダル
項目 | レベル |
---|---|
検定出題数 | 中(38問) |
検定難易度 | 高 |
Web情報量 | 中 |
過去問、問題集だけで対応可? | 大きく不足 |
先の「ディープラーニングの手法」が基礎とするならば、こちらは応用側となる。
若干調べにくく、点に差がつくところ。
2020#2ではU-Netの図解が出たらしい。
U-Net以外にFCN、SegNet、SSD、YOLOなどの構成図は一取り見ておいた方が良いだろう。
年々、急速に発展している部分なので、公式テキスト、問題集では直近3年分に関してはフォローできていない。この点を注意して対策する必要がある。
- 物体を検出することと、物体を認識することは別
- しかし、「物体を認識」する過程で「物体を検出」している可能性もある
- 物体検出は矩形のバンディングボックスと画素単位のセマンティックセグメンテーションに分けられる。
- 双方をくみあわせることでインスタンスセグメンテーションが実現可能
- 自然言語処理の基礎はword2vecことベクトル空間モデル、単語埋め込みモデル
- 発展形のfastText、ELMoはマルチタスク学習が可能
- 画像注釈はCNNとRNNの連携で実現
- やや発展中の領域
- 強化学習はセルフプレイにより、無限に強化される可能性を持っている。
ディープラーニングの応用に向けて
産業への応用、法律、倫理、現行の議論
項目 | レべる |
---|---|
検定出題数 | 多(42問) |
検定難易度 | 極高 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | 激しく不足 |
恐らくは受験者全員を苦しめた大魔境。
テキスト、問題集が完全に無力化される。
Google先生に聞くにしても、適切なキーワードが思い浮かばないこともシバシバ。
この部分のGoogle検索時間を如何に稼ぐかが勝敗を分ける。
2020#2では、ややこの部分の問題数が増えているという情報あり。
70問という話も出ているが、恐らくは50問弱程度の問題数と思われる。
※ 2020#2で、私と同じように受験しながら問題の性質をメモっていた方がいたようで、その方の集計だと、40問弱程度。全体の問題数が減っているので割合としては2020#1と同等。私も2020#1を受けた直後は1/3は法規問題って印象だったが、実際に集計してみると思ったより遥かに少なかった。
2020#1、#2で共通して言えることは、開幕直後に法規問題ラッシュで精神削られるという点。仮に分からなくても、「きっと他の人も分からなくて苦しんでるんだろうな」程度で一旦流してしまった方が良い。ここで精神的に消耗すると後の解かなければならない問題を捌ききれなくなるリスクが上がってしまう。
「道路交通法改正で自動運転レベル3でのスマホ操作を解禁」
「自律型致死兵器システム(LAWS)」
の問題が出たらしい。
無人航空機(ドローン・ラジコン機等)の飛行ルール
は国土交通省のサイトを参照。
プロダクトは作ったら終わりではない。
そこから得た教訓を運用保守や次のプロダクト開発へと循環させていくサイクルが重要。
法律問題対策ページ
法律問題対策動画 前後編合体版
ディープラーニングの基礎数学
項目 | レベル |
---|---|
検定出題数 | 極少(3問) |
検定難易度 | 少 |
Web情報量 | 少 |
過去問、問題集だけで対応可? | 不足 |
ここは正直スルーでも良いかもしれない。
偏微分、ベクトル、行列、統計、ベイズの定理等を覚えておくと良い。
その他
以下の情報も整理しておく必要がある。
- フレームワーク
- Define-by-runタイプ
- PyTorch
- chainer
- Define-and-runタイプ
- TensorFlow
- Caffe
- Define-by-runタイプ
- CIFAR
- 一般物体認識のベンチマーク用データセット
- MNIST
- 手書き数字画像データセット
次にG検定2020#3以降から出てきたやや特殊な問題について。
次のページへ
やや特殊な問題達。
コメント
It’s hard to find educated people about this subject, however, you seem like you know what you’re talking about!
Thanks