【G検定対策】JDLAジェネラリスト検定2020~2024【カンペ、過去問、難易度、感想、チートシート?】

【G検定対策】 JDLAジェネラリスト検定 【カンペ、過去問、難易度、 感想、チートシート?】 G検定
【G検定対策】 JDLAジェネラリスト検定 【カンペ、過去問、難易度、 感想、チートシート?】

G検定 2020#3で出てきたやや特殊な問題

  • EfficientNet
    • 既存のネットワークより高速で高精度なネットワーク。
    • 今まで成されていなかった解像度・深さ・チャネル数を同時に最適化することによって、高速かつ高精度なネットワークを構築。
    • パラメータ探索はグリッドサーチで行う。
  • ガウシアンピラミッド・ラプラシアンピラミッド
    • 縮小する過程でガウシアンぼかしを入れたものがガウシアンピラミッド、ガウシアンピラミッドに解像度間の差を取ったものがラプラシアンピラミッド。
    • ガウシアンピラミッドがローパスフィルタ、ラプラシアンピラミッドがバンドパスフィルタのような特性になる。
  • HOG特徴量
    • 画像認識における特徴量の1つ。
    • 「ピクセル毎の輝度の変化の方向と強さ」を「セル単位でヒストグラム化」した後「ブロック単位で正規化」する。
    • 画像からの人体・車両検出には、この特徴量をSVM(Support Vector Machine)で分類する手法がメジャー。
  • コサイン類似度
    • ベクトル同士のなす角の近さを表現するため、三角関数の普通のコサインの通り、1に近ければ類似しており、0に近ければ似ていないことになる。
  • Meta-Learning
    • 少しのデータ・学習ステップの後,すぐに新しいタスクに適応できるモデル」を学習
  • MAML(Model-Agnostic Meta-Learning)
    • 「(微分可能な)任意の形式のモデル」について,新しいタスクに素早く適応できるようなMeta-Learningの手法
  • RNNにおける教師強制(Teacher forcing)
    • 訓練の際に”1時刻前”の正解データを現時点の入力として用いる手法を指す。
    • とくに自然言語の領域では、教師強制は”翻訳”のモデルなどに適用される。
  • RNN Encoder-Decoder
    • ソース系列をEncoderと呼ばれるLSTMを用いて固定長のベクトルに変換(Encode)し,Decoderと呼ばれる別のLSTMを用いてターゲット系列に近くなるように系列を生成するモデル。
    • 中間層はメモリ的な機能を持ち、Attentionメカニズムと呼ばれる。
  • SMOTEアルゴリズム(Synthetic Minority Over-sampling Technique)
    • 不均衡データの分類に使用される。
    • 少ない方のラベルが付いた各データ点同士を線でつなぎ、その線分上の任意の点をランダムに人工データとして生成。
  • 営業秘密(トレードシークレット)
  • actor-critic法
    • 深層強化学習の一種。
      • 他にQ学習、SARSA、方策勾配法がある。
  • ポアソン回帰
    • ある現象が一定時間内に起こった回数を数え上げたデータのことをカウントデータ(count data)と呼ぶ。
    • 発生頻度と、それに影響する要因との関係を分析する手法のことをカウントデータ分析(analysis of count data)
    • ポアソン回帰分析は稀にしか起こらない現象に関するカウントデータを分析するための手法。
  • 状態空間モデル
    • 時系列データの中に隠れた因果関係を発見し、それをモデル化するもの。
    • もともとは物理システムの記述に使われていたもの
  • カルマンフィルター
    • 観測値から状態を推定するフィルタリング手法。
  • 音声認識系のメル尺度
    • MFCC(メル周波数ケプストラム係数)
    • メル尺度は、音高の知覚的尺度である。メル尺度の差が同じであれば、人間が感じる音高の差が同じになることを意図している
  • ベイズ推定
    • ベイズ確率の考え方に基づき、観測事象(観測された事実)から、推定したい事柄(それの起因である原因事象)を、確率的な意味で推論する。
  • データリーケージ
    • 入ってはいけないデータが混入する状態。

G検定 2021#1で出てきたやや特殊な問題

  • FCN
    • CVPR 2015, PAMI 2016で発表された Fully Convolutional Networks for Semantic Segmentationで提案されたSemantic Segmentation手法。
    • 画像の領域を分割するタスクをSegmentation(領域分割)と呼び、Semantic Segmentationは「何が写っているか」で画像領域を分割するタスクのことを指す。
    • https://youtu.be/m-m0iRc7jJo
  • 説明可能なAI(XAI)への研究開発投資プログラム
    • ディープラーニングの特徴として、モデルが行う推論の理由・根拠が説明困難な場合がある。
    • これを理由にディープラーニングの活用が敬遠される場合もあるが、改善に向けた研究開発は行われている。
    • 例えば2016年にはアメリカ国防高等研究計画局(DARPA)がXAIへの投資プログラムを発表し、推論の根拠の可視化や文章化による説明を可能にするなどの試みが行われている。
  • 個人情報保護法
    • 個人情報の有用性に配慮しつつ、個人の権利利益を保護することを目的とした個人情報の取扱いに関連する法律
    • 背景
      • 情報化社会の進展とプライバシー問題の認識
      • 個人情報保護法制定の世界的潮流
      • OECD 理事会のプライバシー保護勧告
      • 地方公共団体の個人情報保護条例の増加
      • EU一般データ保護規則(欧州連合指令)
      • 電子商取引におけるプライバシー保護の要請
      • 住民基本台帳法の改正による個人情報保護法制の要請
    • https://www.simulationroom999.com/blog/g-test-measures-against-legal-issues/
    • https://youtu.be/Rdb8IrOa68w
  • マルチクラス物体認識(R-CNN以降の物体検出)
  • Depthwise畳み込み
    • 通常の畳み込みは任意の数×チェンネル数のが総フィルター数。
    • Depthwise畳み込みはチェンネル数のが総フィルター数。
    • よって、必要となるパラメータが激減し、演算が高速化
  • 伸縮マッチング手法
    • 変形に対する不変性を解決する手法。
    • DeepLearningの弱点は、画像中のオブジェクトの変換特性を十分に利用できない点。
      • オブジェクトごとに変換不変性を学習しなければならない。
      • 変形したバージョンを大量に追加する、データ増強法を実施しなければならない。
  • CNNの推定根拠可視化手法
    • XAI(Explainable AI)の手法の一つであり、判断根拠をハイライトする方法としてCAM(Class Activation Map)と言うものがある。
      • 派生にGrad-CAM
    • 基本的にはヒートマップ作成。
    • 類似手法にRISE、SIDUがある。
  • 欧州委員会の「AIに関する倫理ガイドライン」
  • 改正著作権法における学習用データの扱い
  • 学習済みモデルの知的財産保護
  • 個人情報保護法に於いてのカメラ画像
  • NAS(Neural Architecture Search)
    • 事例としてはGoogle社のCloud AutoML
    • 従来
      • ニューラルネットワークは重みを最適化し、目的関数を改善する。
    • NAS
      • 「パラメータ最適化」の前段階でニューラルネットワークの構造を最適化。
  • 正規分布の式
    • \(\displaystyle f(x)=\frac{1}{\sqrt{2\pi}}exp(-\frac{x^2}{2})\)

G検定 2021#2で出てきたやや特殊な問題

  • CRISP-DM(Cross-Industry Standard Process for Data Mining)
    • データマイニングの業界横断的な標準プロセス
    • データマイニングの専門家が使用する一般的なアプローチを記述したオープンスタンダードなプロセスモデル。
    • 2015年、IBMはCRISP-DMを改良・拡張したAnalytics Solutions Unified Method for Data Mining/Predictive Analytics(ASUM-DMとも呼ばれる)という新しい方法論を発表した。
  • 個人識別符号
    • 指紋・手指の静脈・顔・DNAなどの生体情報をデジタルデータに変換したものや、運転免許証・パスポート・各種保険証の番号、住民票コードやマイナンバーなどがこれにあたる。
  • 決定木(DT:Decision tree)
    • 段階的にデータを分割していき、木のような分析結果を出力する。
    • 情報利得」が最大となる基準を選択。
      • 分割後のグループの不純度を一番小さく
  • 音素(phoneme:フォネーム)
    • 言語学・音韻論において、音声学的には異なる音価であるが、ある個別言語のなかで同じと見なされる音の集まり。
    • 音声認識に於いては特に以下。
      • 母音:「あいうえお」
      • 撥音:「ん」
      • 子音
    • ありがとう→a-r-i-g-a-t-o
  • ディープフェイク
    • 機械学習アルゴリズムのディープラーニングを利用して、2つの写真や動画の一部をスワップ(交換)させる技術。
  • モデル圧縮
    • ディープニューラルネットワークのモデルを軽量化するための技術。
    • 昨今のモデルの大規模化、入力データの高解像度化,エッジデバイスなどへの適用など、演算時間の短縮と演算時のメモリ削減の需要が高まっている。
    • モデル圧縮手法
      • プルーニング(Pruning:枝刈り)
        • ノードや重みを削除することでパラメータ数を減少。
        • 記憶する必要があるパラメータが減少することによって、計算する回数が削減され、メモリ使用量が少なくなる。
      • クオンタイズ(Quantize:量子化)
        • 重みなどのパラーメータをより小さいビットで表現することで、モデルの軽量化を図る手法。
        • ネットワークの構造を変えずにメモリ使用量を削減。
        • 32ビット浮動小数点精度 → 8bit固定小数点 など(1%程度の性能低下しかしない)
      • ディスティレーション(Distillation:蒸留)
        • 大きいモデルやアンサンブルモデルを教師モデルとして、その知識を小さいモデル(生徒モデル)の学習に利用する方法。
        • 大きいモデルに匹敵する精度を持つ小さいモデルを作ることが期待できる。
        • 一度学習したモデルの知識(予測結果)を別の小さいモデルに継承する。
  • OpneAIがGPT-2の一般公開に対する懸念
    • フルモデルのパラメータ数は15億パラメータ。
    • 対して一般公開したのは1億2400万。
      • フルモデルは性能が高すぎるためテロリスト、ハッカーなどの悪意ある攻撃者に悪用される恐れがあった。
  • Adversarial Examples
    • 微小なノイズを加えることで、人には差異は認識できなくともAIに誤認させることのできる。
    • これを利用した脆弱性攻撃。
  • 相関係数
    • 2つのデータまたは確率変数の間にある線形な関係の強弱を測る指標。
    • 相関係数は無次元量で、-1以上1以下の実数に値をとる。
    • 相関係数が正のとき確率変数には正の相関が、負のとき確率変数には負の相関があるという。
    • また相関係数が0のとき確率変数は無相関であるという
    • ピアソンの積率相関係数。
  • 偏相関
    • 別の交絡因子による影響を取り除いた関心のある2つの変数の間の相関を表す概念である。
    • 相関係数を使用すると、別の交絡因子がある場合に誤解を招く結果が得られる。
    • この誤解を招く情報は、偏相関係数を計算し交絡変数を制御することによって回避できる。
  • 分散
    • データ(母集団、標本)、確率変数(確率分布)の標準偏差の自乗
    • \(\displaystyle s^2=\frac{1}{n}\sum{(x_i-\bar{x})^2}\)
  • 共分散
    • 2組の対応するデータ間での、平均からの偏差の積の平均値
    • 2組の確率変数 \(X, Y\) の共分散 \(Cov(X, Y)\) は、\(E\) で期待値を表す
    • \(Cov(X,Y)=E[(X-E[X])(Y-E[Y])]\)
  • 変分オートエンコーダ(Variational Auto-Encoder: VAE)
    • https://www.simulationroom999.com/blog/deeplearning-technic4/#toc7
    • ニューラルネットワークを使った生成モデルの1つ。
    • 確率分布に対するパラメーター最適化アルゴリズムであるオートエンコーディング変分ベイズアルゴリズム(Auto-Encoding Variational Bayes (AEVB) algorithm)を導入。
  • Cycle GAN
    • 論文
      • https://arxiv.org/abs/1703.10593
      • 画像のペアを学習して、入力画像と出力画像の間のマッピングを学習することを目的とした、視覚やグラフィックスの問題の一種。
      • ペアの例がない場合に、ソースドメインXからターゲットドメインYへの画像の翻訳を学習するためのアプローチ。
        • 「馬→シマウマ」に変換とか。

G検定 2021#3で出てきたやや特殊な問題

  • AD変換
  • BERT(Bidirectional Encoder Representations from Transformers)
    • Googleによって開発された、自然言語処理(NLP)の事前学習用ための Transformer ベースの機械学習手法
    • NLP絡みにで以下の流れが問われることが多い
      • 2018年
        • ELMo
        • GPT
        • BERT
      • 2019年
        • XLNet
  • DeepLab v3
    • atrous畳み込みを用いて、深い畳み込みニューラルネットワークによって計算された特徴を任意の分解能で抽出する。
  • Mask R-CNN
    • 2017年3月20日にarXivにて公開された。
    • 2017年4月5日にversion2、2018年1月24日にversion3となっている。
    • 画像内のオブジェクトを効率的に検出すると同時に、インスタンスごとに高品質のセグメンテーションマスクを生成する。
    • 所謂、インスタンスセグメンテーションを実現する。
    • バウンディングボックス認識用の既存ブランチと並行して、オブジェクトマスクを予測するためのブランチを追加することによって、Faster R-CNNを拡張している。
    • https://youtu.be/m-m0iRc7jJo
  • OpenPose
    • カーネギーメロン大学(CMU)の Zhe Caoら が「Realtime Multi-Person pose estimation」の論文で発表した、深層学習を用いて人物のポーズを可視化してくれる手法。
  • Source-Target Attention
    • Self-Attentionと同様にQuery-Key-Value構造をもっている。
    • 両者の違いは、Self-Attentionが同一データ内の照応関係を獲得しているのに対し、Source-Target-Attentionは異なるデータ間の照応関係を獲得しているという点。
  • アマダール積
    • 数学におけるアダマール積は、同じサイズの行列に対して成分ごとに積を取ることによって定まる行列の積。
    • 要素ごとの積、シューア積、点ごとの積、成分ごとの積(英: entrywise product)などとも呼ばれる。
    • PythonのNumpy.array同士の掛け算は自動的にアダマール積になる。
      • MATLAB、Scilab、Juliaは内積にある。アダマール積にするには「.*」のような演算子を使う。
  • パルス符号変調器
    • 音声などのアナログ信号を、アナログ-デジタル変換回路により、デジタル信号に変換(デジタイズ)する変調方式の一つ
  • フォルマント
    • 音声のスペクトル分析において、ある音声を特徴づける特定の周波数領域。
    • 周波数の低い順から第1フォルマント、第2フォルマントと名付けられ、音のエネルギーが集中する。
    • 音韻の区別に用いられる。
  • マハラノビス距離
    • 統計学で用いられる一種の距離。
    • 「普通の距離を一般化したもの」という意味でマハラノビス汎距離ともいう。
    • プラサンタ・チャンドラ・マハラノビスにより1936年導入された。
    • 多変数間の相関に基づくものであり、多変量解析に用いられる。
    • 新たな標本につき、類似性によって既知の標本との関係を明らかにするのに有用である。
    • データの相関を考慮し、また尺度水準によらないという点で、ユークリッド空間で定義される普通のユークリッド距離とは異なる。
  • マルチエージェント強化学習
    • シングルエージェントで成功した深層強化学習を、マルチエージェントで成功させることは困難である。
    • マルチエージェント強化学習は、シングルエージェントシステムとは異なり、環境のダイナミクスが、環境に内在する不確実性に加えて、環境内のすべてのエージェントの共同行動によって決定されるという点が最大の特徴。
    • 環境が非定常になると、各エージェントは、他のエージェントの方針が変わると最適な方針が変わるという、ムービングターゲット問題に直面する。
    • ほとんどのシングルエージェント強化学習アルゴリズムで要求される定常性の仮定の違反は、マルチエージェント学習問題を解く上での課題となる。
    • マルチエージェントの設定では、エージェントを追加するごとに状態行動空間が指数関数的に増加するため、次元の呪いが悪化する。
    • 同時に、マルチエージェント強化学習は、エージェントが知識を共有し、他の学習エージェントから模倣または直接学習する可能性があるため、新たな機会を導入する。
    • これは、学習プロセスを加速し、その後、ゴールに到達するより効率的な方法をもたらす可能性がある。
    • マルチエージェント深層強化学習は、急速に拡大している新しい分野を生み出している。
    • 多くの実世界の問題はマルチエージェント強化学習問題としてモデル化することができ、深層強化学習の出現により、研究者は単純な表現からより現実的で複雑な環境に移行することができるようになった。
  • ワンホットベクトル
    • (0,1,0,0,0,0) のように、1つの成分が1で残りの成分が全て0であるようなベクトルのこと。
  • 著作権法30条の4の改正
    • 著作物の利用に係る技術開発・実用化の試験のための利用。
    • 思想感情の享受を目的としない利用については、原則として、その方法目的を問わず、適法に行うことが可能となった。
  • 教師強制
    • Seq2SeqのようなEncoder-Decoderモデルに於いて、使用される。
    • 訓練の際に”1時刻前”の正解データを現時点の入力として用いる手法を指す。とくに自然言語の領域では、教師強制は”翻訳”のモデルなどに適用される。
  • 相互情報量
    • 相互情報量または伝達情報量は、確率論および情報理論において、2つの確率変数の相互依存の尺度を表す量である。最も典型的な相互情報量の物理単位はビットであり、2 を底とする対数が使われることが多い。
    • 離散確率変数Xと相互情報量Yの定義
      • \(\displaystyle I(X;Y)=\sum_{y\in Y}\sum_{x\in X}p(x,y)log\frac{p(x,y)}{p(x)p(y)’}\)

G検定 2022#1で出てきたやや特殊な問題

  • DCGAN

DCGAN(Deep Convolutional GAN)は、2015年にA.Radfordらによって発表された敵対的生成ネットワークの一種であり、生成ネットワーク(generator)と識別ネットワーク(discriminator)の2つのネットワークに畳み込みニューラルネットワーク(CNN)を用いたモデル。DCGANにおける生成モデルは100次元の一様分布Zを入力とし、転置畳み込みによって徐々に画像空間へ投影していく仕組みである。また識別モデルは同じくプーリング層を使わずに畳み込みによってダウンサンプリングしていき、活性化関数にはReLUの代わりに漏洩ReLU(Leaky ReLU)を使用する。プーリング層や全結合層を使わずにCNNによって学習を進めることで、通常のGANよりも鮮明な画像の生成が可能になった。さらにDCGANによる生成は、その入力のベクトル空間的な性質が極めて良いことが明らかになり、値の近い入力同士なら似たような画像を生成し、二つの入力の間の値によって生成される画像は二つの画像の意味的な中間となる。これにより、入力を適切に調整することでより高次な特徴レベルの画像をコントロールすることができる。

Wikipediaより(https://ja.wikipedia.org/wiki/DCGAN)
  • MLOps
    • 「機械学習チーム(Machine Learning)/開発チーム」と「運用チーム(Operations)」がお互いに協調し合うことで、機械学習モデルの実装から運用までのライフサイクルを円滑に進めるための管理体制(機械学習基盤)を築くこと。
    • DevOpsから発展して生まれた考え方。
  • AdaBound
    • Adamに学習率の上限と下限を動的に加えたもの。
    • 最初はAdamのように動き、後半からSGDのように動く。
    • Adamの良さである初期の学習の速さとSGDの良さである汎化能力を両立した最適化手法。
  • 二重降下現象
    • 従来の機械学習の考えでは過学習しない適度な大きさのモデルが最適だが、ある条件下では訓練誤差ゼロからさらにモデルを大きくしたほうがテスト誤差が小さくなる二重降下現象が起きる。
    • https://arxiv.org/abs/1909.11720
  • CRISP-DMの6つのステップ
    • CRISP-DMは”CRoss-Industry Standard Process for Data Mining”の略で、直訳すると「データマイニングのための業界横断型標準プロセス」
    • 以下の6つのステップから構成
      • Business Understanding(ビジネスの理解)
      • Data Understanding(データの理解)
      • Data Preparation(データの準備)
      • Modeling(モデリング)
      • Evaluation(評価)
      • Deployment(展開)

G検定 2022#2で出てきたやや特殊な問題

  • MobileNet
    • モバイルおよび組み込みビジョンアプリケーション向けのMobileNetsと呼ばれる効率的なモデル。
    • Depthwise Separable Convolutioを使用して軽量のディープニューラルネットワークを構築する合理化されたアーキテクチャ。
    • https://arxiv.org/abs/1704.04861
  • ドメインランダマイゼーション
    • シミュレータでレンダリングをランダム化することにより、実際の画像に転送されるシミュレートされた画像でモデルをトレーニングするための簡単な手法。
    • シミュレートされたロボット工学をハードウェアでの実験から分離する「現実のギャップ」を埋めることで、データの可用性を向上させることでロボット研究を加速させることができる。
    • https://arxiv.org/abs/1703.06907
  • 匿名加工情報
  • OpenAI Five
    • 2019年4月14日、対戦型リアルタイムストラテジーゲーム「Dota 2」の2018年度世界大会覇者OGに勝利を収めた。
    • OpenAI Fiveと呼ばれるDota2AIは、1万年以上のゲームを自分自身と対戦することで学ぶ。
    • 専門家レベルのパフォーマンスを達成し、人間とAIの協力を学び、インターネット規模で運用する能力を実証した。
    • https://openai.com/five/
  • U-Net
    • 生物医学のために開発された、セマンティックセグメンテーション用のモデル。
    • Encoder-Decoderタイプのモデル。
    • 構造に対称性があり、Contracting path(ResNetのスキップコネクションと同一)を利用している。
      • 類似モデルでFCNがあるが、これに対して対称性とスキップコネクションを付加したと思えばOK。
    • https://arxiv.org/abs/1505.04597
    • https://youtu.be/m-m0iRc7jJo
  • GLUE
    • 自然言語処理モデルによる言語理解タスクの精度を評価するためのベンチマーク(評価基準)
    • BERTやGPTなどのマルチタスク自然言語処理モデルのパフォーマンスを評価する方法として開発された。
    • 「2文の類似度の判断」や「ネガポジ判定」など、指定された複数の自然言語処理タスクのそれぞれに対する性能を評価し、それらの評価の総合値によってモデルの性能が表現される。
    • https://arxiv.org/abs/1804.07461
  • 膨張畳み込み(Dilated Convolution)
    • カーネルを膨張させた畳み込み層
    • カーネルサイズを膨張させた上で、隙間はアクセスせずに無視し、カーネルのストライド幅も広くとって畳込む。
    • これにより,カーネルを移動させた各位置において広い範囲で(疎に)畳み込むので、少ない層数で効率的に広範囲の受容野から畳み込みを行うことができる。
    • https://arxiv.org/abs/1511.07122
  • 箱ひげ図
    • 四角い箱の上下に、ひげが生えている形をしており、データのばらつき具合を示すのに用いる。
  • PoC
    • PoC(Proof of Concept:概念実証)とは、新たなアイデアやコンセプトの実現可能性やそれによって得られる効果などについて検証すること。
  • 準委任契約
    • 特定の業務を遂行することを定めた契約のことで、特定の業務の遂行を目的に締結される。
    • 準委任契約の場合、業務の内容や成果物に対して完成の義務は負わない。
    • そのため、結果または成果物に不備があったとしても、修正や保証を求められない。
  • 個人情報に該当するデータ
  • DenseNet
  • 強化学習の価値関数
  • ε-greedy法
  • オープンイノベーション
    • 組織内部のイノベーションを促進するために、意図的か つ積極的に内部と外部の技術やアイデアなどの資源の流出入を活用し、その結果組 織内で創出したイノベーションを組織外に展開する市場機会を増やすこと。
  • Global Average Pooling
    • 特徴マップの空間領域の全体に対する平均プーリングを行うプーリング層であり、物体認識系CNNの終盤層で全結合層による識別層の代わりによく用いられる
    • https://arxiv.org/abs/1312.4400v3
  • 双方向リカレントニューラルネットワーク
    • 信号が双方向に伝わるようにリカレントニューラルネットワークを拡張したものである。正負の時間軸のデータを同時に学習できることが特徴。
    • https://youtu.be/_1DNz5Y8OXM
  • LIME
    • 説明可能AI(XAI)の手法の一種。
    • 複雑なモデルを単純な線形回帰で近似することで解釈性の向上を目指す手法。
      • つまり、シンプルな数式に置き換えて人間が性質を理解しやすくする。
  • マルコフ決定過程
    • マルコフ性、マルコフ過程(連鎖)、マルコフ報酬過程を内包し、行動という概念を付加したもの。
      • マルコフ性 → 過去の状態は現在の状態に影響を与えない。
      • マルコフ過程(連鎖)→ 状態遷移表と状態遷移行列で表現したもの
      • マルコフ報酬過程 → マルコフ過程(連鎖)に報酬という概念を付加したもの。報酬は割引率を利用して未来報酬を減衰させる考え方も含まれる。
    • https://www.simulationroom999.com/blog/g-test-reinforcement-learning/
    • https://youtu.be/vV62YH1Bq_c

G検定 2022年、2023年以降で出てきたやや特殊な問題

この回は知人で受けた人がほぼおらず情報が少ないのだが、基本的には2022#2と変わらない印象。
といっても、2日開催のため、両日で同じ問題を出すということは考えずらいので、受けた日によって傾向が異なる可能性はある。

まとめ

基礎的なところから、最新情報まで含まれた試験となる。
普段からAI関連の情報収集も並行して実施する必要がある。

取っ掛かりが欲しい人は以下のオンライン無料体験講座がお勧め。

 

コメント

  1. OnlyFans Hack より:

    It’s hard to find educated people about this subject, however, you seem like you know what you’re talking about!
    Thanks

タイトルとURLをコピーしました