ログイン

計算機工学2
100問 • 1年前
  • K
  • 通報

    問題一覧

  • 1

    ハイパーパイザ

    1台のコンピュータで複数の仮想マシン環境を実現する制御機能(ミドルウェア)

  • 2

    モノリシックカーネル

    カーネル自体に多機能を持たせるアーキテクチャ

  • 3

    スタックポインタ

    スタックの最上段のアドレスを保持するレジスタで、スタック内で最後に参照されたアドレスを保持する。

  • 4

    プログラムカウンタ

    CPUが次に実行する命令のアドレスを保持するレジスタ。 命令が実行されると、プログラムカウンタは次の命令のアドレスに自動的に更新されます。

  • 5

    命令レジスタ

    メモリから読み出された機械語命令

  • 6

    ステータスレジスタ

    割り込みの許可状態、及び条件分岐の判断に必要な演算結果の状態

  • 7

    量子ゲート方式

    論理回路とそれを組み合わせた計算回路により構成され、量子ビットを入力することで演算を行う量子コンピュータ。

  • 8

    量子アニーリング方式

    量子ビット(qubit)を使用して、問題の解空間を探索し、経路探索などの組合せ最適化問題を解くことに特化した量子コンピュータ。 特定のアルゴリスムによる演算だけができ、加算演算はできない。

  • 9

    ユニファイドメモリ方式

    CPUとGPUで一つの主記憶を共有して使う方式。データ転送の無駄を減らし、パフォーマンスを向上できる。

  • 10

    ライトスルー ライトバック

    ライトスルー :キャッシュメモリと主記憶の同期をとるための方式。CPUから書き込み命令が出たときに、キャッシュメモリと同時に主記憶にも書き込む方式。データの整合性は得られるが、処理速度は遅い。 ライトバック :キャッシュメモリと主記憶の同期をとるための方式。CPUから書き込み命令が出たときに、キャッシュメモリだけに書き込み、主記憶への書き込みはキャッシュメモリからデータが追い出されるときに行う方式。高速に書き込みできるが、データの整合性を保つための制御が余分に必要になる。

  • 11

    丸め誤差

    扱える桁数(ビット数)で数を収めるために切り捨てや四捨五入を行うことで生じる誤差。

  • 12

    桁落ち

    絶対値のほぼ等しい2つの数を減算したときに、有効桁数が減少してしまう誤差。

  • 13

    情報落ち

    非常に大きな数と非常に小さな数の加算や減算をした時に、小さい数が結果に反映されないために発生する誤差。

  • 14

    打切り誤差

    繰り返しが生じる計算処理を打ち切ることによって発生する誤差。

  • 15

    オーバフロー(あふれ)

    桁数不足で大きい数の表現ができず発生する誤差。

  • 16

    アンダフロー

    桁数不足で小さい数の表現ができず発生する誤差。

  • 17

    ランレングス符号化方式

    連続する同じ値を「色×回数」という情報に置き換える方式です。主に画像データの圧縮に用いられます。

  • 18

    ハフマン符号化方式

    文字コードのビット数を可変にし、 出現率の高い文字には少ないビット数、 出現率の低い文字には長いビット数、 を割り当てる方式です。 頻繁に出てくるデータを少ないビット数で表現するため全体のデータ量を効率的に減らすことができます。

  • 19

    スタック、LIFO

    最後に積み上げたものから取り出して処理するデータ構造 ※再帰的処理でもある

  • 20

    キュー、FIFO

    先に並んだものから、順番に取り出して処理するデータ構造

  • 21

    標本化

    一定時間、アナログ信号を観測し数値化することです。(サンプリングとも言う)サンプリング周波数はkHzなどで表現します。

  • 22

    量子化

    標本化によって得た電気信号を、近似的なディジタルデータ(ビット)で表すことです。

  • 23

    符号化

    一定の規則に基づき、量子化した信号に0と1を割り当てることです。また、符号化されたデータを元の記号 に戻すことを「復号化」といいます。

  • 24

    形式言語

    特定の目的のために作られた言語で、プログラム言語のように厳格な文法によって生成される言語

  • 25

    BNF(Backus-Naur Form:バッカス・ナウア記法)

    「AとはBである」「Aは1または2である」といった構文を定義する文脈自由文法(プログラミング言語を正確に記述するための厳密な形式を定めることが出来る文法)の文法自体を定義するための記法

  • 26

    逆ポーランド記法

    数式やプログラムの記法の一種。演算子を被演算子の後に記載する方法。後置記法 (Postfix Notation) ともいう。

  • 27

    オートマトン

    形式言語を受理・解釈する「架空の機械」であり、形式言語の処理や動作を抽象化したもの。

  • 28

    教師あり学習 教師なし学習 強化学習

    教師あり学習 :正解となる「トレーニングデータ」が教師になり、未知なデータが入力された際に解を出すもの。膨大なデータを学習することにより、未知のデータに対しても対応可能。 教師なし学習 :コンピュータ自身がデータの構造・特徴を分析し、グループ分けやデータの簡略化により法則性を見出すもの。 強化学習 :行動の結果ごとに報酬を設定し、その報酬が最大化するように機械が試行錯誤・学習して精度をあげる方式。「環境、エージェント(学習者)、行動」の3つの構成要素がある。

  • 29

    ディープラーニング

    教師あり学習の代表的アルゴリズム「ニューラルネットワーク」を使って行う機械学習。多層化されたニューラルネットワークを用意し、それに十分な量のデータを与えることで、人間の力なしに自動的に特徴点やパターンを学習させる。

  • 30

    モンテカルロ法

    強化学習で用いられるアルゴリズム。数式で解を求めることが難しい場合に、乱数(0から9までの数字が不規則かつ等確率に現れるように配列されたもの)を用いたシミュレーションを何度も行うことにより近似解を求める計算手法方法。

  • 31

    木構造

    データ構造のうち、ひとつの要素が複数の子要素を持ち、同様に子要素が複数の孫要素を持つような形で、階層が深くなるほど枝分かれしていく構造のこと。 階層構造を持ったデータの集まりを表すために使われ、大量の情報を系統的に管理する際に有効。

  • 32

    完全2分木

    2分木の中で、葉以外の節点はすべて2つの子をもち、根から葉までの深さがすべて等しい木。

  • 33

    スタック領域

    LIFO方式(再起関数)で構成され、プログラムの実行中サブルーチンの情報を、記憶しておくメモリ領域。サブルーチン終了後の戻りアドレスや、局所変数など、を保持する。

  • 34

    ヒープ領域

    2つのラベルを持つ双方向リストで構成され、プログラム上から、動的(任意)に確保できるメモリ領域。 動的にメモリ取得・解放を繰り返すことにより、メモリ上に、どこからも参照されない領域(ガベージ)が発生する。

  • 35

    コンピュータの5つの構成

    ①制御装置 CPU ②演算装置 CPU ③入力装置 キーボードやマウスなど ④記憶装置 ハードディスクやメモリなど ⑤出力装置 モニタやプリンターなど

  • 36

    CPU GPU

    【CPU】 Central Processing Unit (中央処理装置)の略。 プログラムを実行するための数値計算や情報処理、機器制御などを行います。 CPUの内部には、レジスタと呼ばれる小規模な記憶装置があります。 【GPU】 3Dグラフィックスなどの画像描写に必要な計算処理を行います。 汎用の行列演算ユニットを用いて,行列演算を高速に実行することができる。 ディープラーニングで使われることが多い。

  • 37

    スーパースカラプロセッサ

    パイプライン機構を複数用意し、同じステージ(命令フェッチ、命令デコード、メモリアクセス、演算、書込みの各段階)を並列して実行できるよう設計されたプロセッサ

  • 38

    ヘテロジニアスマルチコアプロセッサ

    ・1つのチップにアーキテクチャ、規模、特徴などが異なる種類のCPUコアを搭載するプロセッサ ・ヘテロジニアス(heterogeneous)は「異種の」という意味です。 ・リアルタイム処理とそれ以外の処理の性能、CPUとGPU、データ処理とコントロール処理、汎用CPUと特化CPU、通常のコアと省電力コアなどの組合せなどがあります。

  • 39

    ホモジニアスマルチコアプロセッサ

    1つのチップに同じ種類のCPUコアを複数個搭載するプロセッサ

  • 40

    ソフトコアプロセッサ

    CPUの構成要素が必要に応じて機能するように、FPGAのロジック構造を用いてプログラミングできるプロセッサ

  • 41

    プロセッサによる5つの処理手順

    ①メモリアクセス :プログラムカウンタが示すアドレスに、アクセスします。 ②命令フェッチ(命令の取り出し)+デコード(解読) :CPUが主記憶装置から命令を取り出し、命令を解読することでその命令が加算命令であることが判明します。 ③演算処理の依頼 :加算の演算をALU(演算装置)に依頼します。 ④オペランドの取り出し :処理対象のオペランド(演算子以外の変数など)を主記憶装置から取り出し、汎用レジスタに保存します。 ⑤実行 :保存したオペランドをもとに加算命令を実行し、結果を再び汎用レジスタに格納します。

  • 42

    レジスタ

    処理対象となる命令やデータをCPUに格納する小規模な記憶装置。

  • 43

    アキュムレータ

    「条件付き分岐命令」を実行するために、演算結果の状態を保持するレジスタ。

  • 44

    スタックポインタ

    スタックと呼ばれるメモリ領域の「現在の操作位置を保持」するレジスタ。 サブルーチン呼び出し時に、「戻り先のアドレス」及び「レジスタの内容」を格納する。

  • 45

    プログラムカウンタ(プログラムレジスタ)

    「次に実行する命令」が格納されたメモリのアドレスを格納するレジスタ。

  • 46

    汎用レジスタ

    演算を行うために、メモリから読み出したデータを保持するレジスタ。

  • 47

    命令レジスタ

    命令のデコードを行うために、メモリから読み出した命令を保持するレジスタ。

  • 48

    即値アドレス方式

    オペランド部に対象となるデータそのものが入っている方式です。データそのものがあるので、主記憶装置からはデータの取出しを行いません。

  • 49

    直接アドレス指定方式

    オペランド部で指定したアドレスがそのまま実行アドレスとして使える方式です。

  • 50

    間接アドレス指定方式

    オペランド部で指定したアドレスの箇所に、データが入っている箇所のメモリアドレスが記載されている方式です。

  • 51

    インデックスアドレス指定方式

    オペランド部の値にインデックスレジスタの値を加算して実行アドレスを求める方式です。

  • 52

    ベースアドレス指定方式

    オペランド部の値にベースレジスタの値を加算して実行アドレスを求める方式です。 ※ベースレジスタとは、プログラムがメモリ上にロードされたときの、先頭アドレスを格納するレジスタです。

  • 53

    相対アドレス指定方式

    オペランドの値にプログラムカウンタの値を加算して実行アドレスを求める方式です。

  • 54

    プロセッサの1サイクル(4段階)

    ①命令フェッチ(主記憶装置から命令の取り出し) ②デコード(命令の解釈) ③オペランドの取り出し(主記憶装置から変数などの取り出し ※汎用レジスタに保存) ④命令の実行

  • 55

    パイプライン制御

    各ステージを少しずつずらしながら独立した処理機構で並列に実行することで、処理時間全体を短縮させる技法。各々のステージに要する時間は変わりません。しかし各ステージが常に処理を行なっているため処理時間全体は短縮化されています。

  • 56

    パイプラインハザード

    命令間の依存関係などにより、命令を止めたりやり直さなければならないこと。 ①制御ハザード(分岐ハザード) :処理中の分岐命令や割込み処理が原因で発生するハザード。次に実行すべき命令が判明するまで、パイプラインへの読込みを停止する必要があり、処理効率が低下する。 ②データハザード :ある命令が直前の命令の処理結果を利用するような、データ依存により発生するハザード。前の命令の実行結果を待つ必要があり、処理効率が低下する。 ③構造ハザード :同じタイミングで同じハードウェア資源にアクセスしようとする資源競合により発生するハザード。

  • 57

    スーパスカラ

    マイクロプロセッサ(MPU/CPU)の高速化手法のひとつ。 CPU(演算機)内部に複数のパイプライン(命令を解釈・実行する回路)を用いて、依存関係にない複数の命令を同時に実行可能にすることによって高速化を図る方式。

  • 58

    VLIW(Very Long Instruction Word)

    「1つの命令語」で複数の命令を実行するものです。 命令語を長く取り,「1つの命令語」で依存関係のない複数の機能ユニットを同時に制御することでCPUのオーバーヘッドを削減し、高速化を図ります。

  • 59

    疎結合マルチプロセッサシステム

    複数のプロセッサが独立しており、プロセッサごとに存在するOSによって、メモリなどを個別に制御するマルチプロセッサシステムのことです。

  • 60

    密結合マルチプロセッサシステム

    複数のCPUが、メモリを共有し、単一のOSで、制御されるマルチプロセッサシステムです。

  • 61

    RAM(Random Access Memory)

    揮発性(電源供給が無くなると記憶情報も失われる)のメモリ 【DRAM】 ・低速 ・安い ・大きい ・用途:主記憶装置 ・部品:コンデンサ ・蓄えられた電荷は一定時間が経つと自然放電により失われてしまうので、常にリフレッシュが必要 【SRAM】 ・高速 ・小さい ・用途:レジスタ、キャッシュメモリ ・部品:フリップフロップ回路 ・リフレッシュ不要

  • 62

    相変化メモリ

    不揮発性で、結晶状態と非結晶状態における電気抵抗の差を利用して、情報を記憶するメモリ ・高速 ・DVD-RAM ・書き換えが可能だが、書き込み時の消費電力や耐熱性に弱い

  • 63

    ROM(Read Only Memory)

    不揮発性のメモリ。 ・用途:「OS」と呼ばれる基本ソフトなどを起動させるために利用するプログラム(BIOS) ・一度だけ書込みが可能(仮にデータを消去したい場合は、ブロック単位であれば電気的に内容を消去することが可能) 【マスクROM】 読み出し専用で記録内容を書き換えることができない 【PROM】 一度だけ利用者がデータを書き込める 【EEPROM】 電気操作でデータ書き換えができて大容量が格納できる 【フラッシュメモリ】 • 電気的に書き換え可能 • あらかじめブロック単位で、前のデータを消去してから書込むことで、データの書換えを行う • しかし、書換えを繰り返すことで、データ保持能力が低下 • 電源を切っても、データが消えない

  • 64

    ECCメモリ

    ハミング符号を用いて、データ破損を検出・修正するメモリ。

  • 65

    ハミング符号

    情報ビットにパリティ検査ビットを付加することで2ビットまでの誤りを検出し、1ビットの誤りを訂正できる手法。

  • 66

    記憶階層(4段階)

    *高速・小容量・高価 ①レジスタ :CPU内部の記憶装置。アクセス頻度が高いデータについては、毎回主記憶装置にアクセスすると効率が悪くなるため、レジスタに記憶して処理を高速化する。 ②キャッシュメモリ :CPUの処理速度と主記憶との、アクセス速度の差を埋める程度に、高速アクセスできる記憶装置。CPUがアクセスするデータの一部を、主記憶からキャッシュメモリにコピーしておき、CPUがキャッシュメモリをアクセスすることで処理を高速化する。CPUはまずデータを1次キャッシュに問い合わせ、なければ1次キャッシュより低速な2次キャッシュに問い合わせる。 ③主記憶装置(メインメモリ) ④ディスクキャッシュ :ハードディスクなど外部記憶装置とのデータのやり取りを高速化するためのメモリ。

  • 67

    MMU(Memory Management Unit)(メモリ管理ユニット)

    主記憶を管理するための、ハードウェア機構。(ハードウェア部品のため、OSの一部ではない。)

  • 68

    ユニファイドメモリ方式

    CPUとGPUでひとつの主記憶を共有して、データ転送の無駄を減らしパフォーマンスを向上させる方式。

  • 69

    ウェアレベリング(Wear Leveling)

    • フラッシュメモリの制御方法の一つ • 電子記憶媒体において、全体的にどのブロックも均等に使うように物理的な書込み位置を制御すること • フラッシュメモリのように書換え可能回数に制限がある記憶媒体では、同じブロックへの書込みと消去が集中するとそのブロックが先に不良となってしまいます。 • 記憶媒体の寿命を延ばすために、このような制御が行われています。

  • 70

    並列処理(命令数*データ数の4種類) 

    ①SISD(Single Instruction Single Data) :1つのCPU(1つの命令)で、1つのデータを処理 ②SIMD(Single Instruction Multiple Data) :1つのCPU(1つの命令)で、複数のデータをまとめて処理 ③MISD(Multiple Instruction Single Data) :複数のCPUで(異なる処理を並列して)、1つのデータを処理 ④MIMD(Multiple Instruction Multiple Data) :複数のCPUで、それぞれ個別の複数の命令を並列に処理

  • 71

    フルアソシアティブ方式

    キャッシュメモリとメインメモリとの割り付け方法の一つ。 キャッシュメモリのどのブロックに対しても、メインメモリの任意のブロックが転送できる方式。 データ転送の自由度は高いが、すべてのブロックを検索する必要があり、時間がかかる。

  • 72

    ダイレクトマップ方式

    キャッシュメモリとメインメモリとの割り付け方式の一つ。 キャッシュメモリの特定のブロックに格納される主記憶装置のブロックを決めておく方式。 検索は容易で時間はかからないが、同一グループ内の他ブロックに対して頻繁にアクセスが生じる場合にはアクセス速度が遅くなる。

  • 73

    セットアソシアティブ方式

    キャッシュメモリとメインメモリとの割り付け方式の一つ。 キャッシュメモリのブロックをグループ化しておき、そこに転送できる主記憶装置のブロックもグループ化しておく方式。 探索の容易さとデータ転送の自由度のバランスから、多くのコンピュータで採用されている。

  • 74

    ライトスルー方式

    キャッシュメモリと主記憶装置との間でデータの同期をとる方式の一つ。 キャッシュメモリに、データの書き込み命令が実行された時に、キャッシュメモリと主記憶の両方に同時にデータを書き込む方式。 メリット:データは常に同期される デメリット:処理速度は遅い

  • 75

    ライトバック方式

    キャッシュメモリと主記憶装置との間でデータの同期をとる方式の一つ。 データの書き込み命令が実行された時にはキャッシュメモリだけ書き換え、主記憶へのデータ書き込みは、キャッシュメモリからデータが追い出されるときに行う方式。 メリット:高速処理 デメリット:キャッシュメモリが通電しないなどのトラブル時にはデータが喪失してしまう

  • 76

    メモリインタリーブ

    主記憶装置とCPUとの間のデータ転送を、高速化する方法。 主記憶装置のメモリ領域を、バンクという論理的な複数の領域に分け、並列アクセス(交互にアクセス)することで「アクセス時間の短縮」を図る。

  • 77

    シンプロビジョニング

    外部記憶装置を仮想的に扱うことで、物理的な容量に制約されることなく、必要に応じてディスク容量の割当てられるようにする技術。 ストレージには実際に必要になった容量のデータを保存すれば良いため、効率よく使うことができます。

  • 78

    ライブマイグレーション

    仮想サーバで稼働しているOSやソフトウェアを、停止することなく他の物理サーバへ移し替える技術 仮想サーバの移行に伴う切り替えによるダウンタイムはほぼゼロのため、可用性を損なうことなくユーザにサービスを提供することができます。

  • 79

    サーバコンソリデーション

    仮想化技術を用いることで、複数の専用サーバに分散・非効率化していたアプリケーションや機能を、1台(または少数)の物理サーバに整理統合すること。 → 物理サーバの台数が減る → 維持管理コストの削減

  • 80

    グリッドコンピューティング

    インターネットなどのネットワーク上にある計算資源(CPUなどの計算能力や、ハードディスクなどの情報格納領域)を結びつけ、ひとつの複合したコンピュータシステムとしてサービスを提供する仕組み 統合されるコンピュータ数によっては、スーパーコンピュータ並まで処理性能を高めることも可能となります。

  • 81

    ハイパバイザ型仮想化ソフトウェア

    ホストOSが不要で、ハイパバイザ(仮想化ソフトウェア)がハードウェアのリソースを仮想的に分割して、仮想環境を作り、それぞれの仮想環境にメモリやCPUといったリソースを割り当てます。 ・各仮想環境でゲストOSを自由に選べる ・ハードウェアを直接制御できるため、仮想環境を動かす際にはハーパーバイザーのみのオーバヘッドのみ考慮すればよい ・サーバを起動する際にはゲストOSも同時に立ち上げる必要があり、起動に時間がかかる

  • 82

    ホスト型仮想化ソフトウェア

    ホストOS上で、仮想化ソフトウェアを実行させ、その上にゲストOSを稼働させる仮想化方式 ・ホストOSと異なるOSを、ゲストOSとしてインストールすることができ、ホストOS側で別途アプリケーションを並行稼働させることが可能 ・仮想化ソフトウェアはホストOS上の1つのアプリケーションとして動作することから、仮想化ソフトウェアやホストOSのオーバヘッドが発生し、動作が遅くなる

  • 83

    コンテナ型仮想化ソフトウェア

    コンテナと呼ばれるプロセスに、それぞれアプリケーション実行環境を与える技術を用いた方式。 コンテナはコンテナエンジンというプロセスを用いて、CPUやメモリなどのリソースを隔離し、仮想的な空間を構築します。 ・各コンテナにはゲストOSが不要であることから、サーバの起動が早い ・コンテナは、ホストOSのプロセスのうちの1つに過ぎないことから軽量で、比較的少ないリソースで動作できる(独立性あり) ・各層は独立性が高いので、修正や追加作業も並行して行える ・移動や保存が容易 ・コンテナイメージのデータ量は、ゲストOSを含むサーバ型仮想マシンのイメージファイルと比べると、かなり小さい ・ホストOSを使用するため、OSを選択することができず柔軟性に欠ける

  • 84

    アムダールの法則

    計算処理中の並列可能な部分の割合が、プロセッサを増やしたときの性能向上比にどのように影響するかの関係を示した法則です。

  • 85

    RAID

    複数のハードディスクにデータを分散して格納し、仮想的に1台のハードディスクとして運用し、ディスク障害のときにデータが再生できるようにする仕組み。

  • 86

    RAID 0

    ストライピング(データをブロック単位で分割し、複数のハードディスクに分散して配置)する方式。 ●最小構成:2台 ●メリット:読み込み/書き込み速度が向上 ●デメリット:データの冗長性はないため、障害が発生した場合には、データが失われる

  • 87

    RAID 1

    ミラーリング(複数台のハードディスクに、同時に同じ内容を書き込むことで、データの冗長性を担保)する方式。 ●最小構成:2台 ●メリット:データが二重化されるため、システムの信頼性は高い ●デメリット:ディスク容量は使用容量の倍必要になり、導入コストが高い

  • 88

    RAID 1+0

    ストライピング(データをブロック単位に複数のハードディスクに分散して配置)するとともに、ミラーリング(複数台のハードディスクに同時に同じ内容を書き込み、データの冗長性を担保)する方式。 ●最小構成:4台 ●メリット:読み込み/書き込み速度が向上。データの冗長性も担保。 ●デメリット:データの冗長性はないため、障害が発生した場合には、データが失われる

  • 89

    RAID 2

    実データにエラー訂正用のハミング符号を加えたものを、それぞれストライピングしてHDDに書き込方式。 ●最小構成:5台(実データは2台、符号は3台)

  • 90

    RAID 3

    RAID5の基本となるシステムで、実データを分散させて記録すると同時に、パリティデータ(エラー訂正用のデータ)を1台のハードディスクに記録するする方式。 ●最小構成:3台

  • 91

    RAID 4

    RAID3のデータ処理単位をブロック単位にした方式。 ※RAID3:RAID5の基本となるシステムで、実データを分散させて記録すると同時に、パリティデータ(エラー訂正用のデータ)を1台のハードディスクに記録する方式 ●最小構成:3台

  • 92

    RAID 5

    実データを分散させて記録すると同時に、パリティデータも同様に分散記録る方式。 ●最小構成:3台(※パリティ用の領域としてハードディスク1台分を使用) ●メリット:ハードディスク1台までの故障について、データの復旧が可能。データの読み込みは高速。 ●デメリット:書き込みの際にはパリティチェックを行うため、速度は遅い。

  • 93

    RAID 6

    RAID 5の耐障害性を強化したもので、データブロックのパリティを2つずつ作成し、それぞれ別のドライブに分散記録する方式。 ●最小構成:4台(※パリティ用の領域としてハードディスク2台分を使用) ●メリット:2台までの故障について復旧が可能

  • 94

    SAN(Storage Area Network)

    サーバと、ストレージ装置(ハードディスク装置など)を接続する専用の高速ネットワーク。 個々のサーバにストレージを直接接続するのではなく、LANとは別にサーバ群の後方にストレージ専用のネットワークを構築し、そこにストレージ群を統合する技術です。

  • 95

    NAS(Network Attached Storage)

    LANに接続するファイルストレージシステム。 NASに「共有フォルダ」を作成することで、NASと同じネットワーク内で接続されているパソコン同士でファイルを共有がすることができる。

  • 96

    フォールトトレラント フォールトアボイダンス

    フォールトトレラント :例えシステムの一部で故障が発生したとしても、システム全体を停止させないように設計する考え方。 フォールトアボイダンス :そもそもシステム障害を発生させないよう設計する考え方。構成する部品の品質を高めたり、故障が生じにくい設計や構造を採用することで、故障や障害の原因を可能な限り排除します。

  • 97

    フェールセーフ

    システムの一部に故障や異常が発生したとき、常に安全な状態に保つ。 例) ・信号機が故障したら、信号を赤にする ・工業用機械で進入禁止区域をセンサーで監視し、人や物の侵入を感知したときには機械を緊急停止する

  • 98

    フェールソフト

    システムの一部に障害が発生した場合、故障した個所を切り離すなどの操作を行い、例え機能を低下させてもシステムの稼動を続ける。

  • 99

    フールプルーフ

    利用者が操作や手順を間違えても、誤動作が起こらないようにする。

  • 100

    フェールオーバ

    ある機械が故障したとき,それを停止させて代替の機械に自動的かつ継ぎ目なしに切り替える仕組み。 利用者に気付かれることなく、処理の継続ができることで信頼性が向上します。

  • 1. 国際出願

    1. 国際出願

    K · 62問 · 1年前

    1. 国際出願

    1. 国際出願

    62問 • 1年前
    K

    2. 国際調査

    2. 国際調査

    K · 44問 · 1年前

    2. 国際調査

    2. 国際調査

    44問 • 1年前
    K

    3. 国際公開

    3. 国際公開

    K · 11問 · 1年前

    3. 国際公開

    3. 国際公開

    11問 • 1年前
    K

    4. 国際予備審査

    4. 国際予備審査

    K · 14回閲覧 · 43問 · 1年前

    4. 国際予備審査

    4. 国際予備審査

    14回閲覧 • 43問 • 1年前
    K

    5. 国内移行手続及び国内段階

    5. 国内移行手続及び国内段階

    K · 12問 · 1年前

    5. 国内移行手続及び国内段階

    5. 国内移行手続及び国内段階

    12問 • 1年前
    K

    特実 趣旨

    特実 趣旨

    K · 60問 · 1年前

    特実 趣旨

    特実 趣旨

    60問 • 1年前
    K

    意匠 趣旨

    意匠 趣旨

    K · 35問 · 1年前

    意匠 趣旨

    意匠 趣旨

    35問 • 1年前
    K

    商標 趣旨

    商標 趣旨

    K · 64問 · 1年前

    商標 趣旨

    商標 趣旨

    64問 • 1年前
    K

    商標 判例

    商標 判例

    K · 17問 · 1年前

    商標 判例

    商標 判例

    17問 • 1年前
    K

    計算機工学

    計算機工学

    K · 590問 · 1年前

    計算機工学

    計算機工学

    590問 • 1年前
    K

    計算機工学3

    計算機工学3

    K · 83問 · 1年前

    計算機工学3

    計算機工学3

    83問 • 1年前
    K

    計算機工学4

    計算機工学4

    K · 18問 · 1年前

    計算機工学4

    計算機工学4

    18問 • 1年前
    K

    問題一覧

  • 1

    ハイパーパイザ

    1台のコンピュータで複数の仮想マシン環境を実現する制御機能(ミドルウェア)

  • 2

    モノリシックカーネル

    カーネル自体に多機能を持たせるアーキテクチャ

  • 3

    スタックポインタ

    スタックの最上段のアドレスを保持するレジスタで、スタック内で最後に参照されたアドレスを保持する。

  • 4

    プログラムカウンタ

    CPUが次に実行する命令のアドレスを保持するレジスタ。 命令が実行されると、プログラムカウンタは次の命令のアドレスに自動的に更新されます。

  • 5

    命令レジスタ

    メモリから読み出された機械語命令

  • 6

    ステータスレジスタ

    割り込みの許可状態、及び条件分岐の判断に必要な演算結果の状態

  • 7

    量子ゲート方式

    論理回路とそれを組み合わせた計算回路により構成され、量子ビットを入力することで演算を行う量子コンピュータ。

  • 8

    量子アニーリング方式

    量子ビット(qubit)を使用して、問題の解空間を探索し、経路探索などの組合せ最適化問題を解くことに特化した量子コンピュータ。 特定のアルゴリスムによる演算だけができ、加算演算はできない。

  • 9

    ユニファイドメモリ方式

    CPUとGPUで一つの主記憶を共有して使う方式。データ転送の無駄を減らし、パフォーマンスを向上できる。

  • 10

    ライトスルー ライトバック

    ライトスルー :キャッシュメモリと主記憶の同期をとるための方式。CPUから書き込み命令が出たときに、キャッシュメモリと同時に主記憶にも書き込む方式。データの整合性は得られるが、処理速度は遅い。 ライトバック :キャッシュメモリと主記憶の同期をとるための方式。CPUから書き込み命令が出たときに、キャッシュメモリだけに書き込み、主記憶への書き込みはキャッシュメモリからデータが追い出されるときに行う方式。高速に書き込みできるが、データの整合性を保つための制御が余分に必要になる。

  • 11

    丸め誤差

    扱える桁数(ビット数)で数を収めるために切り捨てや四捨五入を行うことで生じる誤差。

  • 12

    桁落ち

    絶対値のほぼ等しい2つの数を減算したときに、有効桁数が減少してしまう誤差。

  • 13

    情報落ち

    非常に大きな数と非常に小さな数の加算や減算をした時に、小さい数が結果に反映されないために発生する誤差。

  • 14

    打切り誤差

    繰り返しが生じる計算処理を打ち切ることによって発生する誤差。

  • 15

    オーバフロー(あふれ)

    桁数不足で大きい数の表現ができず発生する誤差。

  • 16

    アンダフロー

    桁数不足で小さい数の表現ができず発生する誤差。

  • 17

    ランレングス符号化方式

    連続する同じ値を「色×回数」という情報に置き換える方式です。主に画像データの圧縮に用いられます。

  • 18

    ハフマン符号化方式

    文字コードのビット数を可変にし、 出現率の高い文字には少ないビット数、 出現率の低い文字には長いビット数、 を割り当てる方式です。 頻繁に出てくるデータを少ないビット数で表現するため全体のデータ量を効率的に減らすことができます。

  • 19

    スタック、LIFO

    最後に積み上げたものから取り出して処理するデータ構造 ※再帰的処理でもある

  • 20

    キュー、FIFO

    先に並んだものから、順番に取り出して処理するデータ構造

  • 21

    標本化

    一定時間、アナログ信号を観測し数値化することです。(サンプリングとも言う)サンプリング周波数はkHzなどで表現します。

  • 22

    量子化

    標本化によって得た電気信号を、近似的なディジタルデータ(ビット)で表すことです。

  • 23

    符号化

    一定の規則に基づき、量子化した信号に0と1を割り当てることです。また、符号化されたデータを元の記号 に戻すことを「復号化」といいます。

  • 24

    形式言語

    特定の目的のために作られた言語で、プログラム言語のように厳格な文法によって生成される言語

  • 25

    BNF(Backus-Naur Form:バッカス・ナウア記法)

    「AとはBである」「Aは1または2である」といった構文を定義する文脈自由文法(プログラミング言語を正確に記述するための厳密な形式を定めることが出来る文法)の文法自体を定義するための記法

  • 26

    逆ポーランド記法

    数式やプログラムの記法の一種。演算子を被演算子の後に記載する方法。後置記法 (Postfix Notation) ともいう。

  • 27

    オートマトン

    形式言語を受理・解釈する「架空の機械」であり、形式言語の処理や動作を抽象化したもの。

  • 28

    教師あり学習 教師なし学習 強化学習

    教師あり学習 :正解となる「トレーニングデータ」が教師になり、未知なデータが入力された際に解を出すもの。膨大なデータを学習することにより、未知のデータに対しても対応可能。 教師なし学習 :コンピュータ自身がデータの構造・特徴を分析し、グループ分けやデータの簡略化により法則性を見出すもの。 強化学習 :行動の結果ごとに報酬を設定し、その報酬が最大化するように機械が試行錯誤・学習して精度をあげる方式。「環境、エージェント(学習者)、行動」の3つの構成要素がある。

  • 29

    ディープラーニング

    教師あり学習の代表的アルゴリズム「ニューラルネットワーク」を使って行う機械学習。多層化されたニューラルネットワークを用意し、それに十分な量のデータを与えることで、人間の力なしに自動的に特徴点やパターンを学習させる。

  • 30

    モンテカルロ法

    強化学習で用いられるアルゴリズム。数式で解を求めることが難しい場合に、乱数(0から9までの数字が不規則かつ等確率に現れるように配列されたもの)を用いたシミュレーションを何度も行うことにより近似解を求める計算手法方法。

  • 31

    木構造

    データ構造のうち、ひとつの要素が複数の子要素を持ち、同様に子要素が複数の孫要素を持つような形で、階層が深くなるほど枝分かれしていく構造のこと。 階層構造を持ったデータの集まりを表すために使われ、大量の情報を系統的に管理する際に有効。

  • 32

    完全2分木

    2分木の中で、葉以外の節点はすべて2つの子をもち、根から葉までの深さがすべて等しい木。

  • 33

    スタック領域

    LIFO方式(再起関数)で構成され、プログラムの実行中サブルーチンの情報を、記憶しておくメモリ領域。サブルーチン終了後の戻りアドレスや、局所変数など、を保持する。

  • 34

    ヒープ領域

    2つのラベルを持つ双方向リストで構成され、プログラム上から、動的(任意)に確保できるメモリ領域。 動的にメモリ取得・解放を繰り返すことにより、メモリ上に、どこからも参照されない領域(ガベージ)が発生する。

  • 35

    コンピュータの5つの構成

    ①制御装置 CPU ②演算装置 CPU ③入力装置 キーボードやマウスなど ④記憶装置 ハードディスクやメモリなど ⑤出力装置 モニタやプリンターなど

  • 36

    CPU GPU

    【CPU】 Central Processing Unit (中央処理装置)の略。 プログラムを実行するための数値計算や情報処理、機器制御などを行います。 CPUの内部には、レジスタと呼ばれる小規模な記憶装置があります。 【GPU】 3Dグラフィックスなどの画像描写に必要な計算処理を行います。 汎用の行列演算ユニットを用いて,行列演算を高速に実行することができる。 ディープラーニングで使われることが多い。

  • 37

    スーパースカラプロセッサ

    パイプライン機構を複数用意し、同じステージ(命令フェッチ、命令デコード、メモリアクセス、演算、書込みの各段階)を並列して実行できるよう設計されたプロセッサ

  • 38

    ヘテロジニアスマルチコアプロセッサ

    ・1つのチップにアーキテクチャ、規模、特徴などが異なる種類のCPUコアを搭載するプロセッサ ・ヘテロジニアス(heterogeneous)は「異種の」という意味です。 ・リアルタイム処理とそれ以外の処理の性能、CPUとGPU、データ処理とコントロール処理、汎用CPUと特化CPU、通常のコアと省電力コアなどの組合せなどがあります。

  • 39

    ホモジニアスマルチコアプロセッサ

    1つのチップに同じ種類のCPUコアを複数個搭載するプロセッサ

  • 40

    ソフトコアプロセッサ

    CPUの構成要素が必要に応じて機能するように、FPGAのロジック構造を用いてプログラミングできるプロセッサ

  • 41

    プロセッサによる5つの処理手順

    ①メモリアクセス :プログラムカウンタが示すアドレスに、アクセスします。 ②命令フェッチ(命令の取り出し)+デコード(解読) :CPUが主記憶装置から命令を取り出し、命令を解読することでその命令が加算命令であることが判明します。 ③演算処理の依頼 :加算の演算をALU(演算装置)に依頼します。 ④オペランドの取り出し :処理対象のオペランド(演算子以外の変数など)を主記憶装置から取り出し、汎用レジスタに保存します。 ⑤実行 :保存したオペランドをもとに加算命令を実行し、結果を再び汎用レジスタに格納します。

  • 42

    レジスタ

    処理対象となる命令やデータをCPUに格納する小規模な記憶装置。

  • 43

    アキュムレータ

    「条件付き分岐命令」を実行するために、演算結果の状態を保持するレジスタ。

  • 44

    スタックポインタ

    スタックと呼ばれるメモリ領域の「現在の操作位置を保持」するレジスタ。 サブルーチン呼び出し時に、「戻り先のアドレス」及び「レジスタの内容」を格納する。

  • 45

    プログラムカウンタ(プログラムレジスタ)

    「次に実行する命令」が格納されたメモリのアドレスを格納するレジスタ。

  • 46

    汎用レジスタ

    演算を行うために、メモリから読み出したデータを保持するレジスタ。

  • 47

    命令レジスタ

    命令のデコードを行うために、メモリから読み出した命令を保持するレジスタ。

  • 48

    即値アドレス方式

    オペランド部に対象となるデータそのものが入っている方式です。データそのものがあるので、主記憶装置からはデータの取出しを行いません。

  • 49

    直接アドレス指定方式

    オペランド部で指定したアドレスがそのまま実行アドレスとして使える方式です。

  • 50

    間接アドレス指定方式

    オペランド部で指定したアドレスの箇所に、データが入っている箇所のメモリアドレスが記載されている方式です。

  • 51

    インデックスアドレス指定方式

    オペランド部の値にインデックスレジスタの値を加算して実行アドレスを求める方式です。

  • 52

    ベースアドレス指定方式

    オペランド部の値にベースレジスタの値を加算して実行アドレスを求める方式です。 ※ベースレジスタとは、プログラムがメモリ上にロードされたときの、先頭アドレスを格納するレジスタです。

  • 53

    相対アドレス指定方式

    オペランドの値にプログラムカウンタの値を加算して実行アドレスを求める方式です。

  • 54

    プロセッサの1サイクル(4段階)

    ①命令フェッチ(主記憶装置から命令の取り出し) ②デコード(命令の解釈) ③オペランドの取り出し(主記憶装置から変数などの取り出し ※汎用レジスタに保存) ④命令の実行

  • 55

    パイプライン制御

    各ステージを少しずつずらしながら独立した処理機構で並列に実行することで、処理時間全体を短縮させる技法。各々のステージに要する時間は変わりません。しかし各ステージが常に処理を行なっているため処理時間全体は短縮化されています。

  • 56

    パイプラインハザード

    命令間の依存関係などにより、命令を止めたりやり直さなければならないこと。 ①制御ハザード(分岐ハザード) :処理中の分岐命令や割込み処理が原因で発生するハザード。次に実行すべき命令が判明するまで、パイプラインへの読込みを停止する必要があり、処理効率が低下する。 ②データハザード :ある命令が直前の命令の処理結果を利用するような、データ依存により発生するハザード。前の命令の実行結果を待つ必要があり、処理効率が低下する。 ③構造ハザード :同じタイミングで同じハードウェア資源にアクセスしようとする資源競合により発生するハザード。

  • 57

    スーパスカラ

    マイクロプロセッサ(MPU/CPU)の高速化手法のひとつ。 CPU(演算機)内部に複数のパイプライン(命令を解釈・実行する回路)を用いて、依存関係にない複数の命令を同時に実行可能にすることによって高速化を図る方式。

  • 58

    VLIW(Very Long Instruction Word)

    「1つの命令語」で複数の命令を実行するものです。 命令語を長く取り,「1つの命令語」で依存関係のない複数の機能ユニットを同時に制御することでCPUのオーバーヘッドを削減し、高速化を図ります。

  • 59

    疎結合マルチプロセッサシステム

    複数のプロセッサが独立しており、プロセッサごとに存在するOSによって、メモリなどを個別に制御するマルチプロセッサシステムのことです。

  • 60

    密結合マルチプロセッサシステム

    複数のCPUが、メモリを共有し、単一のOSで、制御されるマルチプロセッサシステムです。

  • 61

    RAM(Random Access Memory)

    揮発性(電源供給が無くなると記憶情報も失われる)のメモリ 【DRAM】 ・低速 ・安い ・大きい ・用途:主記憶装置 ・部品:コンデンサ ・蓄えられた電荷は一定時間が経つと自然放電により失われてしまうので、常にリフレッシュが必要 【SRAM】 ・高速 ・小さい ・用途:レジスタ、キャッシュメモリ ・部品:フリップフロップ回路 ・リフレッシュ不要

  • 62

    相変化メモリ

    不揮発性で、結晶状態と非結晶状態における電気抵抗の差を利用して、情報を記憶するメモリ ・高速 ・DVD-RAM ・書き換えが可能だが、書き込み時の消費電力や耐熱性に弱い

  • 63

    ROM(Read Only Memory)

    不揮発性のメモリ。 ・用途:「OS」と呼ばれる基本ソフトなどを起動させるために利用するプログラム(BIOS) ・一度だけ書込みが可能(仮にデータを消去したい場合は、ブロック単位であれば電気的に内容を消去することが可能) 【マスクROM】 読み出し専用で記録内容を書き換えることができない 【PROM】 一度だけ利用者がデータを書き込める 【EEPROM】 電気操作でデータ書き換えができて大容量が格納できる 【フラッシュメモリ】 • 電気的に書き換え可能 • あらかじめブロック単位で、前のデータを消去してから書込むことで、データの書換えを行う • しかし、書換えを繰り返すことで、データ保持能力が低下 • 電源を切っても、データが消えない

  • 64

    ECCメモリ

    ハミング符号を用いて、データ破損を検出・修正するメモリ。

  • 65

    ハミング符号

    情報ビットにパリティ検査ビットを付加することで2ビットまでの誤りを検出し、1ビットの誤りを訂正できる手法。

  • 66

    記憶階層(4段階)

    *高速・小容量・高価 ①レジスタ :CPU内部の記憶装置。アクセス頻度が高いデータについては、毎回主記憶装置にアクセスすると効率が悪くなるため、レジスタに記憶して処理を高速化する。 ②キャッシュメモリ :CPUの処理速度と主記憶との、アクセス速度の差を埋める程度に、高速アクセスできる記憶装置。CPUがアクセスするデータの一部を、主記憶からキャッシュメモリにコピーしておき、CPUがキャッシュメモリをアクセスすることで処理を高速化する。CPUはまずデータを1次キャッシュに問い合わせ、なければ1次キャッシュより低速な2次キャッシュに問い合わせる。 ③主記憶装置(メインメモリ) ④ディスクキャッシュ :ハードディスクなど外部記憶装置とのデータのやり取りを高速化するためのメモリ。

  • 67

    MMU(Memory Management Unit)(メモリ管理ユニット)

    主記憶を管理するための、ハードウェア機構。(ハードウェア部品のため、OSの一部ではない。)

  • 68

    ユニファイドメモリ方式

    CPUとGPUでひとつの主記憶を共有して、データ転送の無駄を減らしパフォーマンスを向上させる方式。

  • 69

    ウェアレベリング(Wear Leveling)

    • フラッシュメモリの制御方法の一つ • 電子記憶媒体において、全体的にどのブロックも均等に使うように物理的な書込み位置を制御すること • フラッシュメモリのように書換え可能回数に制限がある記憶媒体では、同じブロックへの書込みと消去が集中するとそのブロックが先に不良となってしまいます。 • 記憶媒体の寿命を延ばすために、このような制御が行われています。

  • 70

    並列処理(命令数*データ数の4種類) 

    ①SISD(Single Instruction Single Data) :1つのCPU(1つの命令)で、1つのデータを処理 ②SIMD(Single Instruction Multiple Data) :1つのCPU(1つの命令)で、複数のデータをまとめて処理 ③MISD(Multiple Instruction Single Data) :複数のCPUで(異なる処理を並列して)、1つのデータを処理 ④MIMD(Multiple Instruction Multiple Data) :複数のCPUで、それぞれ個別の複数の命令を並列に処理

  • 71

    フルアソシアティブ方式

    キャッシュメモリとメインメモリとの割り付け方法の一つ。 キャッシュメモリのどのブロックに対しても、メインメモリの任意のブロックが転送できる方式。 データ転送の自由度は高いが、すべてのブロックを検索する必要があり、時間がかかる。

  • 72

    ダイレクトマップ方式

    キャッシュメモリとメインメモリとの割り付け方式の一つ。 キャッシュメモリの特定のブロックに格納される主記憶装置のブロックを決めておく方式。 検索は容易で時間はかからないが、同一グループ内の他ブロックに対して頻繁にアクセスが生じる場合にはアクセス速度が遅くなる。

  • 73

    セットアソシアティブ方式

    キャッシュメモリとメインメモリとの割り付け方式の一つ。 キャッシュメモリのブロックをグループ化しておき、そこに転送できる主記憶装置のブロックもグループ化しておく方式。 探索の容易さとデータ転送の自由度のバランスから、多くのコンピュータで採用されている。

  • 74

    ライトスルー方式

    キャッシュメモリと主記憶装置との間でデータの同期をとる方式の一つ。 キャッシュメモリに、データの書き込み命令が実行された時に、キャッシュメモリと主記憶の両方に同時にデータを書き込む方式。 メリット:データは常に同期される デメリット:処理速度は遅い

  • 75

    ライトバック方式

    キャッシュメモリと主記憶装置との間でデータの同期をとる方式の一つ。 データの書き込み命令が実行された時にはキャッシュメモリだけ書き換え、主記憶へのデータ書き込みは、キャッシュメモリからデータが追い出されるときに行う方式。 メリット:高速処理 デメリット:キャッシュメモリが通電しないなどのトラブル時にはデータが喪失してしまう

  • 76

    メモリインタリーブ

    主記憶装置とCPUとの間のデータ転送を、高速化する方法。 主記憶装置のメモリ領域を、バンクという論理的な複数の領域に分け、並列アクセス(交互にアクセス)することで「アクセス時間の短縮」を図る。

  • 77

    シンプロビジョニング

    外部記憶装置を仮想的に扱うことで、物理的な容量に制約されることなく、必要に応じてディスク容量の割当てられるようにする技術。 ストレージには実際に必要になった容量のデータを保存すれば良いため、効率よく使うことができます。

  • 78

    ライブマイグレーション

    仮想サーバで稼働しているOSやソフトウェアを、停止することなく他の物理サーバへ移し替える技術 仮想サーバの移行に伴う切り替えによるダウンタイムはほぼゼロのため、可用性を損なうことなくユーザにサービスを提供することができます。

  • 79

    サーバコンソリデーション

    仮想化技術を用いることで、複数の専用サーバに分散・非効率化していたアプリケーションや機能を、1台(または少数)の物理サーバに整理統合すること。 → 物理サーバの台数が減る → 維持管理コストの削減

  • 80

    グリッドコンピューティング

    インターネットなどのネットワーク上にある計算資源(CPUなどの計算能力や、ハードディスクなどの情報格納領域)を結びつけ、ひとつの複合したコンピュータシステムとしてサービスを提供する仕組み 統合されるコンピュータ数によっては、スーパーコンピュータ並まで処理性能を高めることも可能となります。

  • 81

    ハイパバイザ型仮想化ソフトウェア

    ホストOSが不要で、ハイパバイザ(仮想化ソフトウェア)がハードウェアのリソースを仮想的に分割して、仮想環境を作り、それぞれの仮想環境にメモリやCPUといったリソースを割り当てます。 ・各仮想環境でゲストOSを自由に選べる ・ハードウェアを直接制御できるため、仮想環境を動かす際にはハーパーバイザーのみのオーバヘッドのみ考慮すればよい ・サーバを起動する際にはゲストOSも同時に立ち上げる必要があり、起動に時間がかかる

  • 82

    ホスト型仮想化ソフトウェア

    ホストOS上で、仮想化ソフトウェアを実行させ、その上にゲストOSを稼働させる仮想化方式 ・ホストOSと異なるOSを、ゲストOSとしてインストールすることができ、ホストOS側で別途アプリケーションを並行稼働させることが可能 ・仮想化ソフトウェアはホストOS上の1つのアプリケーションとして動作することから、仮想化ソフトウェアやホストOSのオーバヘッドが発生し、動作が遅くなる

  • 83

    コンテナ型仮想化ソフトウェア

    コンテナと呼ばれるプロセスに、それぞれアプリケーション実行環境を与える技術を用いた方式。 コンテナはコンテナエンジンというプロセスを用いて、CPUやメモリなどのリソースを隔離し、仮想的な空間を構築します。 ・各コンテナにはゲストOSが不要であることから、サーバの起動が早い ・コンテナは、ホストOSのプロセスのうちの1つに過ぎないことから軽量で、比較的少ないリソースで動作できる(独立性あり) ・各層は独立性が高いので、修正や追加作業も並行して行える ・移動や保存が容易 ・コンテナイメージのデータ量は、ゲストOSを含むサーバ型仮想マシンのイメージファイルと比べると、かなり小さい ・ホストOSを使用するため、OSを選択することができず柔軟性に欠ける

  • 84

    アムダールの法則

    計算処理中の並列可能な部分の割合が、プロセッサを増やしたときの性能向上比にどのように影響するかの関係を示した法則です。

  • 85

    RAID

    複数のハードディスクにデータを分散して格納し、仮想的に1台のハードディスクとして運用し、ディスク障害のときにデータが再生できるようにする仕組み。

  • 86

    RAID 0

    ストライピング(データをブロック単位で分割し、複数のハードディスクに分散して配置)する方式。 ●最小構成:2台 ●メリット:読み込み/書き込み速度が向上 ●デメリット:データの冗長性はないため、障害が発生した場合には、データが失われる

  • 87

    RAID 1

    ミラーリング(複数台のハードディスクに、同時に同じ内容を書き込むことで、データの冗長性を担保)する方式。 ●最小構成:2台 ●メリット:データが二重化されるため、システムの信頼性は高い ●デメリット:ディスク容量は使用容量の倍必要になり、導入コストが高い

  • 88

    RAID 1+0

    ストライピング(データをブロック単位に複数のハードディスクに分散して配置)するとともに、ミラーリング(複数台のハードディスクに同時に同じ内容を書き込み、データの冗長性を担保)する方式。 ●最小構成:4台 ●メリット:読み込み/書き込み速度が向上。データの冗長性も担保。 ●デメリット:データの冗長性はないため、障害が発生した場合には、データが失われる

  • 89

    RAID 2

    実データにエラー訂正用のハミング符号を加えたものを、それぞれストライピングしてHDDに書き込方式。 ●最小構成:5台(実データは2台、符号は3台)

  • 90

    RAID 3

    RAID5の基本となるシステムで、実データを分散させて記録すると同時に、パリティデータ(エラー訂正用のデータ)を1台のハードディスクに記録するする方式。 ●最小構成:3台

  • 91

    RAID 4

    RAID3のデータ処理単位をブロック単位にした方式。 ※RAID3:RAID5の基本となるシステムで、実データを分散させて記録すると同時に、パリティデータ(エラー訂正用のデータ)を1台のハードディスクに記録する方式 ●最小構成:3台

  • 92

    RAID 5

    実データを分散させて記録すると同時に、パリティデータも同様に分散記録る方式。 ●最小構成:3台(※パリティ用の領域としてハードディスク1台分を使用) ●メリット:ハードディスク1台までの故障について、データの復旧が可能。データの読み込みは高速。 ●デメリット:書き込みの際にはパリティチェックを行うため、速度は遅い。

  • 93

    RAID 6

    RAID 5の耐障害性を強化したもので、データブロックのパリティを2つずつ作成し、それぞれ別のドライブに分散記録する方式。 ●最小構成:4台(※パリティ用の領域としてハードディスク2台分を使用) ●メリット:2台までの故障について復旧が可能

  • 94

    SAN(Storage Area Network)

    サーバと、ストレージ装置(ハードディスク装置など)を接続する専用の高速ネットワーク。 個々のサーバにストレージを直接接続するのではなく、LANとは別にサーバ群の後方にストレージ専用のネットワークを構築し、そこにストレージ群を統合する技術です。

  • 95

    NAS(Network Attached Storage)

    LANに接続するファイルストレージシステム。 NASに「共有フォルダ」を作成することで、NASと同じネットワーク内で接続されているパソコン同士でファイルを共有がすることができる。

  • 96

    フォールトトレラント フォールトアボイダンス

    フォールトトレラント :例えシステムの一部で故障が発生したとしても、システム全体を停止させないように設計する考え方。 フォールトアボイダンス :そもそもシステム障害を発生させないよう設計する考え方。構成する部品の品質を高めたり、故障が生じにくい設計や構造を採用することで、故障や障害の原因を可能な限り排除します。

  • 97

    フェールセーフ

    システムの一部に故障や異常が発生したとき、常に安全な状態に保つ。 例) ・信号機が故障したら、信号を赤にする ・工業用機械で進入禁止区域をセンサーで監視し、人や物の侵入を感知したときには機械を緊急停止する

  • 98

    フェールソフト

    システムの一部に障害が発生した場合、故障した個所を切り離すなどの操作を行い、例え機能を低下させてもシステムの稼動を続ける。

  • 99

    フールプルーフ

    利用者が操作や手順を間違えても、誤動作が起こらないようにする。

  • 100

    フェールオーバ

    ある機械が故障したとき,それを停止させて代替の機械に自動的かつ継ぎ目なしに切り替える仕組み。 利用者に気付かれることなく、処理の継続ができることで信頼性が向上します。