Concurrent algorithm とは

コンピュータサイエンスでは、並列アルゴリズムは同時に実行できるアルゴリズムです。ほとんどの標準的なコンピュータアルゴリズムはシーケンシャルアルゴリズムであり、他のプロセスを実行することなくアルゴリズムが最初から最後まで実行されると仮定します。これらは、実際には外部スケジューラによって決定されるため、右に示すように、同時に実行すると正しく動作しないことが多く、非決定論的です。同時実行性は、競合状態などの問題を回避するために、相互排除などの並行性制御を必要とするアルゴリズムにかなりの複雑さを追加します。
多くの並列アルゴリズム、特に分散アルゴリズムが並行して実行されるが、これらは一般的には別個の概念である。

Gale–Church alignment algorithm とは

計算言語学において、ギャール教会アルゴリズムは、対応する文を並列コーパスに整列させる方法である。これは、同等の文章がおおむね対応するという原則に基づいて動作します。つまり、ある言語の長い文章は、他の文章の長い文章に対応する必要があります。このアルゴリズムは、AT&T Bell LaboratoriesのWilliam A. GaleおよびKenneth W. Churchによる1993年の論文に記載されています。

Belief–desire–intention model とは

人間の実践的な推論の信念 – 欲求 – 意図(BDI)モデルは、将来の方向性を説明する方法としてMichael Bratmanによって開発されました。
BDIは基本的に、私たちの世界の精神モデルが理論であるという考え方である、フォーク心理学(「理論理論」)に頼っています。これは、信念欲求ソフトウェアモデルを開発するための基礎として使用されました。

Arithmetic underflow とは

算術アンダーフロー(または「浮動小数点アンダーフロー」または単に「アンダーフロー」)という用語は、計算結果が、コンピュータがそのCPU上のメモリ内で実際に表すことができるよりも小さな絶対値の数であるコンピュータプログラムにおける条件である。
算術アンダーフローは、浮動小数点演算の真の結果が、ターゲットデータ型の通常の浮動小数点数として表現可能な最小値よりも小さい(つまり、ゼロに近い)ときに発生する可能性があります。アンダーフローは、部分的に浮動小数点値の指数の負のオーバーフローと見なすことができます。たとえば、指数部が-128〜127の値を表すことができる場合、-128より小さい値を持つ結果がアンダーフローを引き起こす可能性があります。

Responsible disclosure とは

コンピュータセキュリティなどにおいて、責任ある開示は、脆弱性または問題が修正または修正されることができる一定の期間が経過した後にのみ、脆弱性または問題が開示される脆弱性開示モデルです。この期間は、モデルを完全な開示から区別します。
ハードウェアとソフトウェアの開発者は、間違いを修復するためにしばしば時間とリソースを必要とします。ハッカーやコンピュータセキュリティ科学者は、脆弱性を高い評価を得て一般に知らせることは、社会的責任であるとの見解を示しています。これらの問題を隠すことは、誤った安全を感じる可能性があります。これを回避するために、関係者は、脆弱性を修復し、将来の損害を防ぐ期間に同意し、同意します。脆弱性の潜在的な影響、緊急の修正または回避策の開発および適用に必要な予想される時間、およびその他の要素によっては、この期間は数日から数か月の間で異なる場合があります。インターネットを流通チャネルとして使用してソフトウェアを修正する方が簡単です。
責任感のある開示は、財政的に補償されることを期待しているセキュリティ研究者を満足させることはできませんが、補償を期待してベンダーへの脆弱性を報告するのは恐喝と見ることができます。脆弱性の市場が発達している間、脆弱性の商業化は、脆弱性の開示という概念に結びついて熱く議論されているトピックです。今日、商業脆弱性市場の主な2つの主な企業は、2003年に脆弱性貢献者プログラム(VCP)を開始したiDefenseと2005年に開始されたZDI(Zero Day Initiative)を持つTippingPointです。これらの組織は、材料は買った。 2003年3月から2007年12月の間に、MicrosoftとAppleに影響を及ぼす脆弱性の平均7.5%がVCPまたはZDIのいずれかによって処理されました。バグの賞金を支払って責任ある開示を財務的に支援する独立系企業には、Facebook、Google、Mozilla、Barracuda Networksなどがあります。
Vendor-secは責任公開のメーリングリストでした。すべてではないにしても、多くのCERTグループが責任ある開示を調整している。

Factor oracle とは

ファクタ・オラクルは、テキスト・ボディ内のファクタ(部分文字列)を効率的に検索できる有限状態オートマトンです。サフィックスツリーのような古い技術は時間効率が良いが、相当量のメモリを必要とした。これとは対照的に、ファクター・オーラクルは、増分的に線形の時間と空間で構成することができる。

Maximum common edge subgraph とは

2つのグラフ G {\displaystyle G} G {\displaystyle G’} が与えられたとき、最大共通エッジ部分グラフ問題は、 G {\displaystyle G} の部分グラフと G {\displaystyle G’} の部分グラフの両方と同形である、できるだけ多くの辺を持つグラフ H {\displaystyle H} ]。
一般グラフ上の最大共通エッジ部分グラフ問題は、部分グラフ同型写像の一般化であるため、NP完全である:グラフ H {\displaystyle H} G {\displaystyle G} の最大共通エッジ部分グラフが存在する場合に限り、別のグラフ G {\displaystyle G} の部分グラフと同形である]と H {\displaystyle H} のエッジ数は H {\displaystyle H} と同じです。最大共通エッジ部分グラフ問題に対する2つの入力 G {\displaystyle G} G {\displaystyle G’} が同じ頂点数を必要としない限り、問題はAPX-hardです。

2–3 heap とは

コンピュータサイエンスでは、2-3ヒープは1999年に高岡忠雄が設計したヒープのデータ構造です。この構造はフィボナッチヒープに似ており、2-3ツリーから借りています。
一般的なヒープ操作の時間コストは次のとおりです。
 Delete-minは償却された時間を取る O ( log ( n ) ) {\displaystyle O(\log(n))} 。減少キーは一定の償却時間を要します。挿入には一定の償却時間がかかります。

Ethash とは

Ethashは、Ethereumベースのブロックチェーン通貨における作業証明機能です。それは最終的にSHA-3に標準化されたハッシュ関数であるKeccakを使用します。これらの2つは異なっており、混乱させるべきではありません。バージョン1.0以来、Ethashはメモリ硬度(特殊なASICチップに実装するのが難しい)で容易に検証可能なASIC耐性を持つように設計されています。また、以前のDaggerとHashimotoハッシュのわずかに変更されたバージョンを使用して、計算上のオーバーヘッドを削除します。以前はDagger-Hashimotoと呼ばれていましたが、Ethash関数は時間とともに進化しました。 Ethashは、Ethash DAGと呼ばれる最初の1 GBのデータセットと、ライトクライアントが保持する16 MBのキャッシュを使用します。これらは、エポックとして知られている30,000ブロック毎に再生されます。マイナーはDAGのスライスをつかんで、トランザクションとレシートのデータと、ダイナミックターゲットの難しさの下でハッシュを生成する暗号ノンスを使ってミックスハッシュを生成します。

Probabilistic analysis of algorithms とは

アルゴリズムの分析において、アルゴリズムの確率的解析は、アルゴリズムまたは計算上の問題の計算上の複雑さを推定する手法である。すべての可能な入力の集合の確率的分布についての仮定から始まる。この仮定は、効率的なアルゴリズムを設計するため、または既知のアルゴリズムの複雑さを導き出すために使用されます。
このアプローチは、確率論的アルゴリズムと同じではありませんが、2つを組み合わせることができます。
確率論的でない、より具体的には、決定論的アルゴリズムの場合、最も一般的なタイプの複雑さ推定値は、平均の場合の複雑さ(予想される時間の複雑さ)とほぼ常に複雑さです。入力分布を仮定すると、平均事例複雑度を得るために、アルゴリズムの予想時間が評価されるが、ほぼ常に複雑さ推定値に対して、アルゴリズムは、ほぼ確実に所与の複雑さ推定値を認めると評価される。
確率的(無作為化)アルゴリズムの確率分析では、入力分布に加えて、無作為化されたステップにおけるすべての可能な選択の分布または平均化も考慮される。