Concurrent algorithm とは

コンピュータサイエンスでは、並列アルゴリズムは同時に実行できるアルゴリズムです。ほとんどの標準的なコンピュータアルゴリズムはシーケンシャルアルゴリズムであり、他のプロセスを実行することなくアルゴリズムが最初から最後まで実行されると仮定します。これらは、実際には外部スケジューラによって決定されるため、右に示すように、同時に実行すると正しく動作しないことが多く、非決定論的です。同時実行性は、競合状態などの問題を回避するために、相互排除などの並行性制御を必要とするアルゴリズムにかなりの複雑さを追加します。
多くの並列アルゴリズム、特に分散アルゴリズムが並行して実行されるが、これらは一般的には別個の概念である。

Gale–Church alignment algorithm とは

計算言語学において、ギャール教会アルゴリズムは、対応する文を並列コーパスに整列させる方法である。これは、同等の文章がおおむね対応するという原則に基づいて動作します。つまり、ある言語の長い文章は、他の文章の長い文章に対応する必要があります。このアルゴリズムは、AT&T Bell LaboratoriesのWilliam A. GaleおよびKenneth W. Churchによる1993年の論文に記載されています。

Factor oracle とは

ファクタ・オラクルは、テキスト・ボディ内のファクタ(部分文字列)を効率的に検索できる有限状態オートマトンです。サフィックスツリーのような古い技術は時間効率が良いが、相当量のメモリを必要とした。これとは対照的に、ファクター・オーラクルは、増分的に線形の時間と空間で構成することができる。

Maximum common edge subgraph とは

2つのグラフ G {\displaystyle G} G {\displaystyle G’} が与えられたとき、最大共通エッジ部分グラフ問題は、 G {\displaystyle G} の部分グラフと G {\displaystyle G’} の部分グラフの両方と同形である、できるだけ多くの辺を持つグラフ H {\displaystyle H} ]。
一般グラフ上の最大共通エッジ部分グラフ問題は、部分グラフ同型写像の一般化であるため、NP完全である:グラフ H {\displaystyle H} G {\displaystyle G} の最大共通エッジ部分グラフが存在する場合に限り、別のグラフ G {\displaystyle G} の部分グラフと同形である]と H {\displaystyle H} のエッジ数は H {\displaystyle H} と同じです。最大共通エッジ部分グラフ問題に対する2つの入力 G {\displaystyle G} G {\displaystyle G’} が同じ頂点数を必要としない限り、問題はAPX-hardです。

2–3 heap とは

コンピュータサイエンスでは、2-3ヒープは1999年に高岡忠雄が設計したヒープのデータ構造です。この構造はフィボナッチヒープに似ており、2-3ツリーから借りています。
一般的なヒープ操作の時間コストは次のとおりです。
 Delete-minは償却された時間を取る O ( log ( n ) ) {\displaystyle O(\log(n))} 。減少キーは一定の償却時間を要します。挿入には一定の償却時間がかかります。

Ethash とは

Ethashは、Ethereumベースのブロックチェーン通貨における作業証明機能です。それは最終的にSHA-3に標準化されたハッシュ関数であるKeccakを使用します。これらの2つは異なっており、混乱させるべきではありません。バージョン1.0以来、Ethashはメモリ硬度(特殊なASICチップに実装するのが難しい)で容易に検証可能なASIC耐性を持つように設計されています。また、以前のDaggerとHashimotoハッシュのわずかに変更されたバージョンを使用して、計算上のオーバーヘッドを削除します。以前はDagger-Hashimotoと呼ばれていましたが、Ethash関数は時間とともに進化しました。 Ethashは、Ethash DAGと呼ばれる最初の1 GBのデータセットと、ライトクライアントが保持する16 MBのキャッシュを使用します。これらは、エポックとして知られている30,000ブロック毎に再生されます。マイナーはDAGのスライスをつかんで、トランザクションとレシートのデータと、ダイナミックターゲットの難しさの下でハッシュを生成する暗号ノンスを使ってミックスハッシュを生成します。

Probabilistic analysis of algorithms とは

アルゴリズムの分析において、アルゴリズムの確率的解析は、アルゴリズムまたは計算上の問題の計算上の複雑さを推定する手法である。すべての可能な入力の集合の確率的分布についての仮定から始まる。この仮定は、効率的なアルゴリズムを設計するため、または既知のアルゴリズムの複雑さを導き出すために使用されます。
このアプローチは、確率論的アルゴリズムと同じではありませんが、2つを組み合わせることができます。
確率論的でない、より具体的には、決定論的アルゴリズムの場合、最も一般的なタイプの複雑さ推定値は、平均の場合の複雑さ(予想される時間の複雑さ)とほぼ常に複雑さです。入力分布を仮定すると、平均事例複雑度を得るために、アルゴリズムの予想時間が評価されるが、ほぼ常に複雑さ推定値に対して、アルゴリズムは、ほぼ確実に所与の複雑さ推定値を認めると評価される。
確率的(無作為化)アルゴリズムの確率分析では、入力分布に加えて、無作為化されたステップにおけるすべての可能な選択の分布または平均化も考慮される。

R+ tree とは

R +ツリーは、場所、しばしば(x、y)座標、およびしばしば地球の表面上の位置を使用してデータをルックアップする方法です。 1つの番号で検索することは解決された問題です。 2つ以上を検索し、x方向とy方向の両方に近接する場所を求めるには、より巧妙なアルゴリズムが必要です。
根本的に、R +ツリーはツリーデータ構造であり、Rツリーの変形であり、空間情報を索引付けするために使用されます。

Multi-Prob Cut とは

Multi-Prob Cutは、アルファベータプルーニング検索で使用されるヒューリスティックです。 Othelloやドラフトのようなゲームでは、ヌル・ムーブ・ヒューリスティックが問題になるゲームが特に関心を集めています。