ログイン

딥러닝
40問 • 7ヶ月前
  • ユーザ名非公開
  • 通報

    問題一覧

  • 1

    신경망의 출력은 목표값과의 오차를 유발한다. 이 경우 역전파 알고리즘은 오차를 감소시키기 위해 가중치 벡터 값을 조절한다. 이 때 사용되는 법칙은?

    미분의 연쇄법칙

  • 2

    다음 중 소프트맥스 함수와 교차 엔트로피 오차를 조합한 것을 나타내는 활성화 함수는?

    Softmax-with-Loss

  • 3

    다음 활성화 함수 중 확률 개념을 적용하여 [0,1] 사이의 값 중 최대치를 갖는 ?? 결과를예측하는 방법은?

    Softmax

  • 4

    범주형 변수를 바꾸는 방법인 특성공학 중 One-Hot Encoding이란?

    0 또는 1로 바꾸는 법

  • 5

    California Housing Data처럼 지도의 위도와 경도 데이터들로 구성된 수많은 좌표 데이터에 대해 특정 구역을 표현할 수 있는 가장 효율적인 범주 데이터 레이블은?

    Embedding

  • 6

    기울기 소멸을 방지하기 위해 Sigmoid, Tanh 등 비선형 활성화 함수 초기화 방법은?

    Xavier

  • 7

    기울기 소멸을 ??

    LeCun

  • 8

    Covariant Shift(공변량 변화)를 줄일 수 있는 최선책은?

    Batch Normalization

  • 9

    기울기 폭주를 줄일 수 있는 최선책은?

    Clipping

  • 10

    데이터는 범주형과 수치형 데이터가 있으며, 신경망(컴퓨터)은 수치형 데이터, ~는 관계로 범주형 데이터를 딥러닝 모델에 맞도록 수치형 데이터로 변화시키는 특성화공학이 적용되어야만 한다. 다음 중 특성화공학 기법이 아닌 것은?

    Sigmoid Encoding

  • 11

    다음 중 Tensorflow로 CNN을 구현한 것 중 신경망 훈련을 시키는 코드는?

    dnn_clf. train (input_fn=input_fn)

  • 12

    CNN에서 26x26 데이터가 Pooling Layer(Sub-sampling)를 거친 결과 데

    13x13

  • 13

    CNN이 가장 우수한 점은 이미지의 크기, 이동(위치), 변형 등에 대한 점이다. 이러한 불변성을 찾아내는 방법은?

    Pooling

  • 14

    다음의 CNN 망에서 conv3 - pooling을 거쳐 Dense Layer로 들어가는 데이터 크기는? def _build_net(self): with tf.variable_scope (self.name): self.training = tf.placeholder (tf.bool) self.X = tf.placeholder (tf. float32, [None, 784]) Ximg = tf.reshape(self.X. [-1, 28, 28) 11) self.Y = tf.placcholder(if. float32. (None, 101) convil = tf.layers.conv2d(inputs=X ing, filters- 32, kemel_size=[3, 31, padding ="SAME", activation=tf.nn.relu) pooll = Lf.lavers. rax Doodling 2a inputs =conv1., pool size=12, 21, padding - SAME", strides -2) conv2 = tf.layers. conv2d(inputs dropoutl, filtdis=64, kernel size=(3, 31, packing-"'SAME", activation-t.m.relu) pool2 = tf. layers.max pooling2d(inputs=conv2, wool size=(2, 21, padding -'SAME", strides=2) conv3 = tf. layers.conv2d(inputs=dropout2, filters=128, kerne[ size=(3, 3], padding-'SAIVE", activation=tf.nn.relu) pool3 = tf.layers.max pooling2d(inputs conv3, pool size -12, 2), padding-"SAME, strides = 2)

    (?,4,4,128)

  • 15

    다음의 CNN망을 작도하면 X_ing부터 pool 3까지의 이미지 크기가 옳은 것은? def _build_net (self): with tf.variable_scope(self.name): self. training = tf.placeholder (tf.bool) self.X = tf.placeholder (tf. float32, [None, 784]) 28 28 Ximg = tf.reshape (self.X, [-1, 28, 28, 1]) self.Y = tf.placeholder (tf. float32, [None, 101) pool = flayers.max pooling 2d(inputs conv1, pooL size=12, 21, paddling-'SAME", strides-2) I A 19 conv2 = tf.layers.conv2&(inputs dropoutl, filters/61) kerriel_ size=[3, 31, padding="SAME", activation=tf..relu) pool2 = tf.layers.max pooling 2d(inputs=conv2, pool-size= (2, 21, padding-"SAME", strides=2) 1 7 conv3 = tf. layers.conv2d(inputs=dropout2, filters 128, kernel_ size= (3, 3], padding-'SAIME", activation=tf.nn.relu) pool3 = tf. layers.max pooling2d(inputs -conv3, pool size (2, 2], padding-"SAME“, strides –2) ㉮ 28×28->32 @26x26-3213x13->619/1x11-> 64 6x6->128 @4x4->128@2x2 ㉯ 28×28-+32@28×28->32@14×14->61@14x11->64@7x7-›128@7×7->128@4×4 ㉰ 28×28->32@25×25-32@12×12 >64@9x9->64@5×5->128@2×2->128@1x1 ㉱ 28x28->32@26×26->32@26×26->64@14x14-64@14x14->128@7x7->128@7x7

    28×28-+32@28×28->32@14×14->61@14x11->64@7x7-›128@7×7->128@4×4

  • 16

    범주형 데이터를 분류하는 문제를 풀고자 하는 신경망을 설계하고자 한다. 다음 중 어떤 활성화 함수 순서대로 쓰는 것이 가장 좋은가?

    LeakyReLU-ELU-sigmoid-ReLU

  • 17

    다음 중 활성화함수와 가중치 초기화 방법이 적절하게 연관된 것은?

    ReLU-LeCun

  • 18

    다음 중 기울기 소멸 또는 폭주 문제를 해결하는 방법 중 가장 효과적인 것은?

    ReLU 활성화 함수 사용

  • 19

    신경망이 학습하는 도중에 이전 측의 파라미터 변화로 인해 현재 층의 입력 분포가 현상을 무엇이라고 하는가? 가 Covariate Shift 나 Gradignt Vanishing 다 Batch normalization 라 Gradient Exploding

    Covariate Shift

  • 20

    CNN이 수행되는 과정을 순서대로 올바르게 표현한 것은? 가 Shift & Distortion invariance-Classification-Feature extraction 나 Classification-Feature extraction-Shift & Distortion invariance 다 Shift-Distortion invariance-Classification 라 Feature extraction-Shift & Distortion invariance-Classification

    Feature extraction-Shift & Distortion invariance-Classification

  • 21

    CNN의 3단계 흥을 순서대로 올바르게 나열한 것은?

    Convolution -Pooling -Fully connecte

  • 22

    일반적인 딥러닝 신경망은 Fully-connected 형태를 취하고 있다. 그럼에도 불구하고 이미지의 패턴 분류에는 유독 CNN을 적용하는 가장 큰 이유는?

    공간정보 손실을 최소화시키기 위해

  • 23

    CNN의 합성곱층이 갖고 있는 가장 큰 특징(장점)은?

    입력 데이터의 공간 형상 유지

  • 24

    CNN의 합성곱층에는 필터 또는 커널이 사용된다. 이를 사용하는 주된 이유는?

    특징맵을 추출하기 위해

  • 25

    CNN은 합성곱층에서 패딩(Padding)을 적용하는 이유는?

    데이터 유실을 방지하기 위해

  • 26

    CNN은 합성곱층에서 스트라이드(Stride)의 의미는? 가 필터를 적용하는 간격 나 특징을 추출할 대상인 세부구역 다 필터와 데이터의 사이즈를 맞추기 위해 라 필터를 입력 데이터 크기에 맞추기 위해

    필터를 적용하는 간격

  • 27

    CNN은 합성곱층 - 풀링계층으로 구성되어 있다. 풀링계층을 두는 가장 큰 이유는?

    이미지의 불변성을 검출하기 위해

  • 28

    CNN의 풀링계층에 적용되는 방법이 아닌 것은?

    max-out

  • 29

    MINIST의 0~9까지 손글씨 이미지를 0~9의 숫자로 분류하는 CNN의 마지막 출력층 (Fully- connected)에는 10개의 뉴런이 사용된다. 바로 이전 단계에 Fully-connected 층이 하나 더 있는 경우 이 층의 뉴런 수는? 가 10개 나 1024개 다 128개 라 256개

    1024개

  • 30

    CNN과 RNN을 사용하는 가장 주된 분야가 순서대로 올바르게 짝지워진 것은? 가 이미지 공간구조-시계열 데이터 나 이미지 공간구조-이미지 1차원 구조 다 시계열 추정 -시계열 예측 라 자연어 처리- 음성인식

    이미지 공간구조-이미지 1차원 구조

  • 31

    4x4 필터를 적용할 경우 Stride로 적당하지 않은 것은?

    3

  • 32

    교차상관(Cross-correlation)

  • 33

    이미지 크기가 4x4인 경우 필터 크기 3x3을 적용할 경우 합성곱 중의 출력을 4x4로 하려면, Padding의 값은?

    2

  • 34

    이미지 크기 3x3의 값이 1,1,1,0,1,1,0,0,1이고, 필터 크기 3x3의 가중치가 1,0,1,0,1,1,0, 0,0.1인 경우 합성곱 결과는?

    3

  • 35

    이미지 값이 3,0,2,4인 경우 2x2 Max-Pooling 결과는?

    4

  • 36

    다음 중 신경망에서 가장 좋은 결과를 나타내는 풀링 방법은?

    Max -Pooling

  • 37

    다음 중 CNN의 다음 합성곱 층에 적용될 최적의 필터 개수는 이전 층에 비해 몇 장 적당한가?

    2배

  • 38

    RNN을 적용하는 분야 중 가장 빈도가 낮은 것은?

    이미지 처리

  • 39

    RNN의 BPTT를 사용하는 경우 기울기 소멸과 폭주 문제가 발생하며, 학습시간 린다. 이러한 문제점을 해결하기 위해 제안된 신경망은?

    LSTM

  • 40

    LSTM의 간소화된 버전이라 할 수 있는 신경망은?

    GRU

  • 특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    ユーザ名非公開 · 20問 · 28日前

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    20問 • 28日前
    ユーザ名非公開

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    ユーザ名非公開 · 20問 · 28日前

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    20問 • 28日前
    ユーザ名非公開

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    ユーザ名非公開 · 20問 · 28日前

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    특정소방대상물의 소방시설 설치의 면제 기준 (p.160 2법)

    20問 • 28日前
    ユーザ名非公開

    건설안전기사 51~75

    건설안전기사 51~75

    ユーザ名非公開 · 25問 · 4ヶ月前

    건설안전기사 51~75

    건설안전기사 51~75

    25問 • 4ヶ月前
    ユーザ名非公開

    건설안전기사 1~25문제

    건설안전기사 1~25문제

    ユーザ名非公開 · 25問 · 4ヶ月前

    건설안전기사 1~25문제

    건설안전기사 1~25문제

    25問 • 4ヶ月前
    ユーザ名非公開

    소방학개론 (모든문제)

    소방학개론 (모든문제)

    강승상 · 132問 · 4ヶ月前

    소방학개론 (모든문제)

    소방학개론 (모든문제)

    132問 • 4ヶ月前
    강승상

    1주차 2

    1주차 2

    ユーザ名非公開 · 99問 · 5ヶ月前

    1주차 2

    1주차 2

    99問 • 5ヶ月前
    ユーザ名非公開

    수학

    수학

    ユーザ名非公開 · 20問 · 5ヶ月前

    수학

    수학

    20問 • 5ヶ月前
    ユーザ名非公開

    산업안전보건법 및 고압가스 안전관리법

    산업안전보건법 및 고압가스 안전관리법

    이현성 · 71問 · 10ヶ月前

    산업안전보건법 및 고압가스 안전관리법

    산업안전보건법 및 고압가스 안전관리법

    71問 • 10ヶ月前
    이현성

    Ai 기말 문제

    Ai 기말 문제

    슈크림곰 · 46問 · 1年前

    Ai 기말 문제

    Ai 기말 문제

    46問 • 1年前
    슈크림곰

    ㅌㄱㅎ

    ㅌㄱㅎ

    E. HAZARD · 31問 · 1年前

    ㅌㄱㅎ

    ㅌㄱㅎ

    31問 • 1年前
    E. HAZARD

    데이터베이스

    데이터베이스

    제제 · 45問 · 1年前

    데이터베이스

    데이터베이스

    45問 • 1年前
    제제

    問題一覧

  • 1

    신경망의 출력은 목표값과의 오차를 유발한다. 이 경우 역전파 알고리즘은 오차를 감소시키기 위해 가중치 벡터 값을 조절한다. 이 때 사용되는 법칙은?

    미분의 연쇄법칙

  • 2

    다음 중 소프트맥스 함수와 교차 엔트로피 오차를 조합한 것을 나타내는 활성화 함수는?

    Softmax-with-Loss

  • 3

    다음 활성화 함수 중 확률 개념을 적용하여 [0,1] 사이의 값 중 최대치를 갖는 ?? 결과를예측하는 방법은?

    Softmax

  • 4

    범주형 변수를 바꾸는 방법인 특성공학 중 One-Hot Encoding이란?

    0 또는 1로 바꾸는 법

  • 5

    California Housing Data처럼 지도의 위도와 경도 데이터들로 구성된 수많은 좌표 데이터에 대해 특정 구역을 표현할 수 있는 가장 효율적인 범주 데이터 레이블은?

    Embedding

  • 6

    기울기 소멸을 방지하기 위해 Sigmoid, Tanh 등 비선형 활성화 함수 초기화 방법은?

    Xavier

  • 7

    기울기 소멸을 ??

    LeCun

  • 8

    Covariant Shift(공변량 변화)를 줄일 수 있는 최선책은?

    Batch Normalization

  • 9

    기울기 폭주를 줄일 수 있는 최선책은?

    Clipping

  • 10

    데이터는 범주형과 수치형 데이터가 있으며, 신경망(컴퓨터)은 수치형 데이터, ~는 관계로 범주형 데이터를 딥러닝 모델에 맞도록 수치형 데이터로 변화시키는 특성화공학이 적용되어야만 한다. 다음 중 특성화공학 기법이 아닌 것은?

    Sigmoid Encoding

  • 11

    다음 중 Tensorflow로 CNN을 구현한 것 중 신경망 훈련을 시키는 코드는?

    dnn_clf. train (input_fn=input_fn)

  • 12

    CNN에서 26x26 데이터가 Pooling Layer(Sub-sampling)를 거친 결과 데

    13x13

  • 13

    CNN이 가장 우수한 점은 이미지의 크기, 이동(위치), 변형 등에 대한 점이다. 이러한 불변성을 찾아내는 방법은?

    Pooling

  • 14

    다음의 CNN 망에서 conv3 - pooling을 거쳐 Dense Layer로 들어가는 데이터 크기는? def _build_net(self): with tf.variable_scope (self.name): self.training = tf.placeholder (tf.bool) self.X = tf.placeholder (tf. float32, [None, 784]) Ximg = tf.reshape(self.X. [-1, 28, 28) 11) self.Y = tf.placcholder(if. float32. (None, 101) convil = tf.layers.conv2d(inputs=X ing, filters- 32, kemel_size=[3, 31, padding ="SAME", activation=tf.nn.relu) pooll = Lf.lavers. rax Doodling 2a inputs =conv1., pool size=12, 21, padding - SAME", strides -2) conv2 = tf.layers. conv2d(inputs dropoutl, filtdis=64, kernel size=(3, 31, packing-"'SAME", activation-t.m.relu) pool2 = tf. layers.max pooling2d(inputs=conv2, wool size=(2, 21, padding -'SAME", strides=2) conv3 = tf. layers.conv2d(inputs=dropout2, filters=128, kerne[ size=(3, 3], padding-'SAIVE", activation=tf.nn.relu) pool3 = tf.layers.max pooling2d(inputs conv3, pool size -12, 2), padding-"SAME, strides = 2)

    (?,4,4,128)

  • 15

    다음의 CNN망을 작도하면 X_ing부터 pool 3까지의 이미지 크기가 옳은 것은? def _build_net (self): with tf.variable_scope(self.name): self. training = tf.placeholder (tf.bool) self.X = tf.placeholder (tf. float32, [None, 784]) 28 28 Ximg = tf.reshape (self.X, [-1, 28, 28, 1]) self.Y = tf.placeholder (tf. float32, [None, 101) pool = flayers.max pooling 2d(inputs conv1, pooL size=12, 21, paddling-'SAME", strides-2) I A 19 conv2 = tf.layers.conv2&(inputs dropoutl, filters/61) kerriel_ size=[3, 31, padding="SAME", activation=tf..relu) pool2 = tf.layers.max pooling 2d(inputs=conv2, pool-size= (2, 21, padding-"SAME", strides=2) 1 7 conv3 = tf. layers.conv2d(inputs=dropout2, filters 128, kernel_ size= (3, 3], padding-'SAIME", activation=tf.nn.relu) pool3 = tf. layers.max pooling2d(inputs -conv3, pool size (2, 2], padding-"SAME“, strides –2) ㉮ 28×28->32 @26x26-3213x13->619/1x11-> 64 6x6->128 @4x4->128@2x2 ㉯ 28×28-+32@28×28->32@14×14->61@14x11->64@7x7-›128@7×7->128@4×4 ㉰ 28×28->32@25×25-32@12×12 >64@9x9->64@5×5->128@2×2->128@1x1 ㉱ 28x28->32@26×26->32@26×26->64@14x14-64@14x14->128@7x7->128@7x7

    28×28-+32@28×28->32@14×14->61@14x11->64@7x7-›128@7×7->128@4×4

  • 16

    범주형 데이터를 분류하는 문제를 풀고자 하는 신경망을 설계하고자 한다. 다음 중 어떤 활성화 함수 순서대로 쓰는 것이 가장 좋은가?

    LeakyReLU-ELU-sigmoid-ReLU

  • 17

    다음 중 활성화함수와 가중치 초기화 방법이 적절하게 연관된 것은?

    ReLU-LeCun

  • 18

    다음 중 기울기 소멸 또는 폭주 문제를 해결하는 방법 중 가장 효과적인 것은?

    ReLU 활성화 함수 사용

  • 19

    신경망이 학습하는 도중에 이전 측의 파라미터 변화로 인해 현재 층의 입력 분포가 현상을 무엇이라고 하는가? 가 Covariate Shift 나 Gradignt Vanishing 다 Batch normalization 라 Gradient Exploding

    Covariate Shift

  • 20

    CNN이 수행되는 과정을 순서대로 올바르게 표현한 것은? 가 Shift & Distortion invariance-Classification-Feature extraction 나 Classification-Feature extraction-Shift & Distortion invariance 다 Shift-Distortion invariance-Classification 라 Feature extraction-Shift & Distortion invariance-Classification

    Feature extraction-Shift & Distortion invariance-Classification

  • 21

    CNN의 3단계 흥을 순서대로 올바르게 나열한 것은?

    Convolution -Pooling -Fully connecte

  • 22

    일반적인 딥러닝 신경망은 Fully-connected 형태를 취하고 있다. 그럼에도 불구하고 이미지의 패턴 분류에는 유독 CNN을 적용하는 가장 큰 이유는?

    공간정보 손실을 최소화시키기 위해

  • 23

    CNN의 합성곱층이 갖고 있는 가장 큰 특징(장점)은?

    입력 데이터의 공간 형상 유지

  • 24

    CNN의 합성곱층에는 필터 또는 커널이 사용된다. 이를 사용하는 주된 이유는?

    특징맵을 추출하기 위해

  • 25

    CNN은 합성곱층에서 패딩(Padding)을 적용하는 이유는?

    데이터 유실을 방지하기 위해

  • 26

    CNN은 합성곱층에서 스트라이드(Stride)의 의미는? 가 필터를 적용하는 간격 나 특징을 추출할 대상인 세부구역 다 필터와 데이터의 사이즈를 맞추기 위해 라 필터를 입력 데이터 크기에 맞추기 위해

    필터를 적용하는 간격

  • 27

    CNN은 합성곱층 - 풀링계층으로 구성되어 있다. 풀링계층을 두는 가장 큰 이유는?

    이미지의 불변성을 검출하기 위해

  • 28

    CNN의 풀링계층에 적용되는 방법이 아닌 것은?

    max-out

  • 29

    MINIST의 0~9까지 손글씨 이미지를 0~9의 숫자로 분류하는 CNN의 마지막 출력층 (Fully- connected)에는 10개의 뉴런이 사용된다. 바로 이전 단계에 Fully-connected 층이 하나 더 있는 경우 이 층의 뉴런 수는? 가 10개 나 1024개 다 128개 라 256개

    1024개

  • 30

    CNN과 RNN을 사용하는 가장 주된 분야가 순서대로 올바르게 짝지워진 것은? 가 이미지 공간구조-시계열 데이터 나 이미지 공간구조-이미지 1차원 구조 다 시계열 추정 -시계열 예측 라 자연어 처리- 음성인식

    이미지 공간구조-이미지 1차원 구조

  • 31

    4x4 필터를 적용할 경우 Stride로 적당하지 않은 것은?

    3

  • 32

    교차상관(Cross-correlation)

  • 33

    이미지 크기가 4x4인 경우 필터 크기 3x3을 적용할 경우 합성곱 중의 출력을 4x4로 하려면, Padding의 값은?

    2

  • 34

    이미지 크기 3x3의 값이 1,1,1,0,1,1,0,0,1이고, 필터 크기 3x3의 가중치가 1,0,1,0,1,1,0, 0,0.1인 경우 합성곱 결과는?

    3

  • 35

    이미지 값이 3,0,2,4인 경우 2x2 Max-Pooling 결과는?

    4

  • 36

    다음 중 신경망에서 가장 좋은 결과를 나타내는 풀링 방법은?

    Max -Pooling

  • 37

    다음 중 CNN의 다음 합성곱 층에 적용될 최적의 필터 개수는 이전 층에 비해 몇 장 적당한가?

    2배

  • 38

    RNN을 적용하는 분야 중 가장 빈도가 낮은 것은?

    이미지 처리

  • 39

    RNN의 BPTT를 사용하는 경우 기울기 소멸과 폭주 문제가 발생하며, 학습시간 린다. 이러한 문제점을 해결하기 위해 제안된 신경망은?

    LSTM

  • 40

    LSTM의 간소화된 버전이라 할 수 있는 신경망은?

    GRU