近年、人工知能(AI)の研究者たちは、囲碁から人間レベルの音声認識まで、数十年にわたって研究を続けてきた分野でついに飛躍的な進歩を遂げた。画期的な進歩を達成するための鍵は、研究者が膨大な量のデータを収集し、そのデータから「学習」することで、エラー率を許容できるレベルまで下げることです。 つまり、ビッグデータは人工知能の発展に革命をもたらし、それをほぼ信じられないほどのレベルにまで押し上げました。 ブロックチェーン技術は、もちろん独自の方法で人工知能に革命を起こす可能性も秘めています。ブロックチェーンを AI に使用する方法のいくつかは、AI モデルの監査証跡を提供するなど、現在非常にシンプルです。独自の人工知能、つまり人工知能分散型自律組織 (AI DAO) を持つといった、信じられないほどのアプリケーションもあります。これらは発展の機会です。この記事では、これらのアプリケーションについて詳しく説明します。 ブルーオーシャンデータベースとしてのブロックチェーンこれらのアプリケーションについて説明する前に、まずブロックチェーンと従来のビッグデータ分散データベース (MongoDB など) の違いを理解しましょう。 ブロックチェーンは「ブルー オーシャン」データベースと考えることができます。つまり、サメがいる既存の市場競争の「レッド オーシャン」から抜け出し、市場競争のないブルー オーシャンに参入するのです。ブルーオーシャンの有名な例としては、ビデオゲーム機「Wii」(本来のパフォーマンスは犠牲になったが、新しいインタラクションモードを追加)や、ワイン愛好家の気取った規範を無視し、ビール愛好家にとってワインをより身近なものにした「イエローテイルワイン」などが挙げられます。 従来のデータベース標準では、従来のブロックチェーン (ビットコインなど) は、スループットが低い、容量が小さい、レイテンシが高い、クエリのサポートが貧弱など、ひどいものです。しかし、ブルー オーシャンの考え方では、ブロックチェーンは分散化/共有制御、不変性/監査証跡、ネイティブ アセット/交換という 3 つの新しい機能を導入するため、これは許容範囲です。ビットコインに触発された人々は、従来のデータベースベースのシステムの欠点を喜んで無視します。なぜなら、これらの新しい利点は、まったく新しい方法で業界全体や社会に影響を与える可能性があるからです。 これら 3 つの新しい「ブロックチェーン」データベース機能は、人工知能アプリケーションにも影響を与える可能性があります。しかし、実際の AI 作業のほとんどは、大規模なデータセットのトレーニングや高スループットのストリーム処理など、大量のデータを伴います。したがって、ブロックチェーンを人工知能の分野に応用するには、ビッグデータのスケーラビリティとクエリを備えたブロックチェーン技術が必要です。これは、BigchainDB とそのパブリック ネットワーク IPDB (インターネット ピンボール マシン データベース) などの新興テクノロジーの場合に当てはまります。これにより、従来のビッグデータ データベースの利点を放棄することなく、ブロックチェーンの利点を享受できるようになります。 人工知能のためのブロックチェーンの概要大規模なブロックチェーン技術は、人工知能アプリケーションの可能性を解き放ちます。ブロックチェーンの 3 つの利点から始めて、この可能性を探ってみましょう。 これらのブロックチェーンの利点は、AI 実践者に次のような機会をもたらします。 分散型/共有型制御によりデータ共有が促進されます。(1)より多くのデータを持ち込むことで、より良いモデルを訓練することができる。 (2)新たな定性データと新たな定性モデルをもたらす。 (3)人工知能を制御するためのトレーニングデータやモデルの共有を可能にする。 不変性/監査証跡:(4)データとモデルのトレーニング/テストに対する保証を提供し、データとモデルの信頼性を向上させます。データには評判も必要です。 ローカル資産/取引所: (5)トレーニング/テストデータとモデルを知的財産(IP)資産化し、分散型データとモデルの交換を可能にする。データの上流使用をより強力に制御します。 もう一つの機会があります:(6)人工知能とブロックチェーンは、分散型自律組織(AI DAO /分散型自律組織)の可能性を解き放ちます。これらの AI は富を蓄積することができます。これらは大部分がサービスとしてのソフトウェアです。 ブロックチェーンは、さまざまな方法で AI を支援することもできます。逆に、ブロックチェーンデータのマイニング(シルクロード調査など)など、AI がブロックチェーンを支援できる方法は数多くあります。これはまた別の議論のトピックです:) こうした機会の多くは、AI とデータの特別な関係に関係しています。まずこれについて話し合いましょう。この後、人工知能分野におけるブロックチェーンの応用についてさらに詳しく検討します。 人工知能とデータここでは、現代の AI が大量のデータを活用して優れた結果を生み出す仕組みについて説明します。 (常にそうであるとは限りませんが、説明に値するほど一般的です。) 「伝統的な」AIとデータの歴史私が 90 年代に AI 研究を始めたとき、典型的なアプローチは次のとおりでした。 固定された(通常は小さい)データセットを見つけます。 AUC 値を改善するためのサポート ベクター マシン分類器の新しいカーネル関数を設計するなど、パフォーマンスを向上させるアルゴリズムを設計します。 アルゴリズムを会議やジャーナルに公開します。アルゴリズム自体が十分に優れている限り、「公開可能な最小限の改善」は 10% の相対的な改善で十分です。改善が 2 倍から 10 倍の場合、特にアルゴリズムが非常に洗練されている (複雑である) 場合は、その分野の最高のジャーナルに掲載される可能性が高くなります。 これが学術的に聞こえるなら、それはその通りだ。現実世界での応用もあるものの、AI の研究のほとんどはまだ学術分野にあります。私の経験では、これはニューラル ネットワーク、ファジー システム、進化的計算、さらには非線形計画法や凸最適化などの AI にはあまり関係のない手法を含む AI の多くのサブフィールドに当てはまります。 私が最初に発表した論文「多項式時系列の高速かつ正確なモデリングのための最小二乗法による遺伝的プログラミング」(1997 年)では、私が新たに発明したアルゴリズムが、最先端のニューラル ネットワークや遺伝的プログラミングなどと比較して、最小限の固定データセットで最先端の結果を達成したことを誇らしげに示しました。 現代のAIとデータに向けてしかし、世界は変わりました。 2001 年、マイクロソフトの研究者であるバンコとブリルは、注目すべき結果を記した論文を発表しました。まず、自然言語処理の分野におけるほとんどの研究が 100 万語未満の小さなデータセットに基づいている状況について説明します。この場合、Naive Bayes や Perceptron などの古くて退屈でそれほど洗練されていないアルゴリズムのエラー率は 25% ですが、洗練された新しいメモリベースのアルゴリズムではエラー率は 19% になります。これらは以下の左端の 4 つのデータ ポイントです。 今のところ、驚くようなことは何も起きていません。しかし、バンコ氏とブリル氏は驚くべき事実を明らかにした。アルゴリズムを同じにしたまま、データを少しだけではなく何倍も追加すると、エラー率は大幅に低下し続けるのだ。データ セットが 3 桁大きくなると、誤差は 5% 未満になります。多くの分野では、この差は 18% と 5% の間ですが、実用上十分なのは後者だけです。 さらに、最良のアルゴリズムは最も単純なものです。最悪のアルゴリズムは最も素晴らしいものです。 1950 年代の退屈なパーセプトロン アルゴリズムが最先端の技術に勝っています。 最新のAIとデータこのパターンに気づいたのはバンコ氏とブリル氏だけではない。たとえば、2007 年に Google の研究者である Halevy、Norvig、Pereira は、AI の多くの領域でデータが「不当に効果的」になる可能性があることを示す論文を発表しました。 これは人工知能の分野に原子爆弾のような打撃を与えました。
そこでレースはさらなるデータを収集し始めました。良いデータを得るには多大な労力がかかります。リソースがあれば、データを取得できます。場合によってはデータがロックされることもあります。この新しい世界では、データが最前線であり、AI アルゴリズムは商品です。これらの理由から、Google、Facebook などの企業にとって「より多くのデータ」が重要になります。
これらのダイナミクスを理解すれば、特定のアクションは簡単に説明できます。 Google が衛星画像会社を買収したのは、衛星画像が気に入ったからではない。 Google は TensorFlow を公開しました。 ディープラーニングは、このコンテキストに直接適用されます。つまり、十分に大きなデータセットが与えられれば、相互作用と潜在変数を捕捉する方法を見つけることができます。興味深いことに、1980 年代のバックプロパゲーション ニューラル ネットワークは、同じ大規模なデータセットを与えられた場合、最先端の技術に匹敵することがあります。参考論文「Deep Big Simple Neural Nets は手書き数字認識に優れている」つまり、データが鍵となるのです。 AI研究者としての私自身の成熟度も同様です。現実世界の問題に遭遇したとき、私はプライドを捨て、「クールな」アルゴリズムをあきらめ、目の前の問題を解決できることに満足し、データとスケールを愛することを学びました。私たちは、自動化の創造的な設計から「退屈な」パラメータの最適化へと焦点を移しました。そして、ユーザーから変数を 10 個から 1000 個に増やすように求められたとき、私たちは慌てても退屈ではなくなりました。これは、私が最初に勤めた会社 ADA (1998 ~ 2004 年) の場合でした。私たちは、凝ったモデリング手法から、非常にシンプルでありながら完全にスケーラブルな機械学習アルゴリズム(FFX など)へと焦点を移しました。ユーザの要件が 100 個の変数から 100,000 個に、モンテカルロ サンプルが 100 億個から 10 億個 (有効サンプル) に増えたときも、私たちは同じように退屈しませんでした。これは、私の 2 番目の会社である Solido (2004 年現在) で起こったことです。私の 3 番目で現在の会社の製品である BigchainDB でさえ、スケールの必要性を反映しています (2013 年現在)。機能とスケールを拡張します。 機会 1: データ共有 → より良いモデル要約すると、分散化/共有制御によりデータ共有が可能になり、その結果、より優れたモデル、より高い利益、より低いコストなどにつながります。以下に説明します。 AIはデータを好みます。データが多いほど、モデルは良くなります。しかし、データはサイロ化されていることが多く、特にこの新しい世界では、データは克服できないギャップになる可能性があります。 しかし、十分なプラスのメリットがあれば、ブロックチェーンは従来の独立した組織間でのデータ共有を促進することができます。ブロックチェーンの分散型の性質は、データの共有を促進します。つまり、データを保存するインフラストラクチャを単一のエンティティが制御しない場合、共有における競合が少なくなります。詳しいメリットについては後ほど説明します。 データ共有は、企業内(例:地域オフィス間)、エコシステム内(例:コンソーシアム データベース)、または地球全体(例:共有された地球データベース、つまりパブリック ブロックチェーン)で発生する可能性があります。 それぞれの例を以下に示します。 社内: ブロックチェーン テクノロジーを使用して、さまざまな地域オフィスのデータを統合します。これにより、独自のデータの監査と監査人とのデータ共有にかかるコストが削減されます。新しいデータが利用可能になると、企業は、たとえば、地域オフィス レベルでのみ構築された以前のモデルよりも正確に顧客離脱を予測する AI モデルを構築できるようになります。各地域オフィス用の「データマート」ですか? エコシステム内: 競合他社 (銀行やレコード会社など) は、これまで決してデータを共有しませんでした。しかし、今では、複数の銀行のデータを組み合わせることで、クレジットカード詐欺を防止するためのより優れたモデルを作成できることを率直に示すことができます。あるいは、サプライチェーン組織はブロックチェーンを通じてデータを共有し、サプライチェーンの早い段階でデータに人工知能を使用することで、サプライチェーンの障害の根本原因をより正確に特定することができます。たとえば、大腸菌の菌株は正確にはどこに出現するのでしょうか? 地球規模(パブリックブロックチェーンデータベース):異なるエコシステム間でのデータ共有を検討します(例:エネルギー使用量データ + 自動車部品サプライチェーンデータ)。または、地球規模のエコシステム(ネットワークなど)の個々の参加者間でも発生します。データ ソースを増やすとモデルを改善できます。例えば、中国の一部の工場でのエネルギー使用量の急増は、市場に輸送されるまでに丸一日かかった違法な自動車部品に関連している可能性がある。一般的に、企業はデータを集約し、それをロンダリングし、再パッケージ化し、販売しています。 Bloomberg 端末から、HTTP API 経由でデータを販売する数十 (または数百) のスタートアップ企業まで。この将来については後ほど詳しく説明します。 敵はデータを共有し、人工知能に供給します。 2016年は本当に楽しかったです! 機会2: データ共有 → 新しいモデル場合によっては、個別のデータを組み合わせると、より優れたデータセットが得られるだけでなく、新しいデータセットを取得します。これにより、まったく新しいモデルが生まれ、そこから新たな洞察を得て、新しいビジネス アプリケーションを作成できるようになります。つまり、これまでできなかったことができるようになるのです。 ダイヤモンド詐欺を識別する例を以下に示します。ダイヤモンドの保険を提供する銀行であれば、ダイヤモンドが偽造品であるかどうかを識別する分類器を開発する必要があります。地球上には信頼できるダイヤモンド認定機関が 4 つあります (もちろん、誰に尋ねるかによって異なります)。いずれかのラボのダイヤモンド データにしかアクセスできない場合、他の 3 つのラボのデータにはアクセスできず、分類器によって他のラボのダイヤモンドが簡単に偽物としてフラグ付けされる可能性があります (下の図の左を参照)。誤検出率によりシステムが使用できなくなる可能性があります。 一方、ブロックチェーンによって 4 つの認定ラボがデータを共有できるようになると、分類器を構築するための正当なデータがすべて揃います (右下)。 eBay で見られるような入力ダイヤモンドはすべてシステムで実行され、分類器の各クラスと比較されます。分類器は実際の不正行為を検出し、誤検知を回避することができるため、誤検知率が下がり、保険会社や認証機関に利益をもたらします。これは単純に検索ボックスとして使用できるため、人工知能は必要ありません。しかし、AI を使用することで、色やカラットに基づいて価格を予測し、「価格が価値にどれだけ近いか」を主要な不正分類器への入力として使用するなど、さらに改善されています。 ここでの 2 番目の例は、分散型システムにおける適切なトークン インセンティブ スキームにより、以前はラベル付けされていなかったデータセットにラベル付けしたり、より経済的な方法でラベル付けしたりすることを奨励できるということです。これは基本的に分散型の Mechanical Turk (Amazon のクラウドソーシング サービス プラットフォーム) です。新しいラベルを使用すると、新しいデータセットが作成されます。新しいデータセットをトレーニングに使用して、新しいモデルを取得します。 3 番目の例として、トークン インセンティブにより、IoT デバイスからの直接的なデータ入力が可能になります。これらのデバイスはデータを制御し、それをエネルギーなどの資産と交換することができます。同様に、この新しいデータは新しいモデルにつながる可能性があります。 溜め込むか共有するか?ここでは、2 つの相反する動機の間に緊張が生じています。 1 つは、データを蓄積することです。つまり、「データは新しい堀である」という考え方です。もう 1 つは、より良い/新しいモデルを取得するためにデータを共有することです。共有行動には、「堀」効果を超える十分な推進力が必要です。技術的な原動力は、より優れたモデルや新しいモデルを獲得することですが、この原動力には商業的な価値がなければなりません。考えられる利点としては、原材料やサプライチェーンにおける保険金詐欺の削減などが挙げられます。 Mechanical Turk を収益性の高い副業として利用する;データ/モデルの交換;あるいは、レコード会社が力を合わせて Apple の iTunes などに対抗したように、強力なコアプレーヤーに対して集団行動を起こす。創造的なビジネス戦略が必要です。 集中化と分散化?一部の組織がデータを共有することを選択した場合でも、ブロックチェーン技術がなくても共有できます。たとえば、S3 インスタンスに保存して API を公開するだけで済みます。しかし、場合によっては、分散化によって新たなメリットがもたらされます。 1 つ目は、インフラストラクチャを直接共有し、共有アライアンス内の単一の組織が「共有データ」自体のすべてを制御しないようにすることです。 (これは数年前、レコードレーベルがパブリックレジストリで協力しようとしたときに大きな障害となりました。) もう 1 つの利点は、データとモデルを資産に変換しやすくなり、外部にライセンス供与して利益を得ることができることです。この点については以下で詳しく説明します。 前述のように、データとモデルの共有は、企業内(多国籍企業の場合、これは想像以上に困難です)、エコシステムまたはコンソーシアム内;または地球上で(公益事業になるのと同等)。この地球規模の共有について、もう少し詳しく調べてみましょう。 機会 2A: 惑星レベルでの新しいデータ → 惑星レベルでの新しい洞察 地球レベルでのデータ共有はおそらく最も興味深いものです。この問題をさらに詳しく調べてみましょう。 IPDB は断片的ではなく、世界規模で構造化されたデータです。 World Wide Web をインターネット上のファイル システムとして考えてみましょう。 IPDB は、そのデータベース版です。 (これに関する取り組みがあまり行われていないのは、セマンティック ウェブの取り組みがファイル システムのアップグレードという観点からこれを実行しようとしているためだと思います。しかし、ファイル システムを「アップグレード」してデータベースを構築するのはかなり難しいです。最初からデータベースを構築して設計していると言った方が効果的です。) 「グローバル変数」はより文字通りに解釈されます :) では、IPDB のような地球規模の共有データベース サービスがあったらどうなるでしょうか?参照ポイントはいくつかあります。 最初の参考点は、天気やウェブ時間などのシンプルな API から、株や通貨などの金融データ API まで、公開データをキュレートして再パッケージ化し、より使いやすいものにするための 10 億ドル規模の市場が企業界で最近存在していることです。このすべてのデータが、同様の構造の方法で単一のデータベースからアクセス可能だと想像してください (たとえそれが API を経由するだけのものであっても)。それはブルームバーグが1,000人いるようなものです。単一の組織に縛られることを心配する必要はありません。 2 番目の参照点はブロックチェーンから来ており、ブロックチェーンを通じて外部データを「オラクル化」して簡単に利用できるようにするという概念です。しかし、私たちはすべてを口頭で説明することができます。分散型ブルームバーグは始まりに過ぎません。 全体として、データセットとデータ ソースの多様性においてまったく新しい次元が得られます。つまり、質的に新しいデータが得られるのです。惑星レベルで構造化されたデータ。これにより、本質的には、以前は関連がなかった入力と出力間の接続を作成する新しいモデルを構築できます。モデルによって、自然に対する新たな洞察が得られます。 ここでもっと具体的に説明できればよかったのですが、あまりにも新しいので例が思いつきません。しかし、彼らは現れるでしょう! ボットの視点もあります。私たちは、ブロックチェーン API の主な消費者は人間であると想定してきました。しかし、それが機械だったらどうなるでしょうか?現代の DNS の創始者である David Holtzman 氏は最近、「IPDB は人工知能のための餌だ」と述べました。分析すると、IPDB が地球レベルでのデータ共有を実現し、奨励しており、人工知能が本当にデータを食べるのが好きなためです。 機会3: データとモデルの監査証跡により予測の信頼性が高まるこのアプリケーションは、ガベージデータを使用してトレーニングすると、ガベージモデルが得られるという事実をターゲットにしています。データテストでも同じことが言えます。つまり、ゴミを入れればゴミが出てくるということです。 ゴミは、データを改ざんした可能性のある悪意のある行為者/ビザンチン障害から発生する可能性があります。フォルクスワーゲンの排出ガス不正事件を考えてみましょう。ガベージは、IoT センサーの欠陥、入力データの破損、環境放射線によるわずかな変動 (適切なエラー訂正動作がない場合) など、悪意のないアクター/クラッシュによっても発生する可能性があります。 X/y トレーニング データに欠陥がないことをどうやって確認するのでしょうか?フィールドからのデータ入力でモデルを実行する、フィールドでの使用についてはどうでしょうか?モデル予測 (yhat) はどうですか?つまり、モデルに出入りするデータはどうなるのでしょうか?データにも評判が必要です。 ブロックチェーン技術が役立ちます。具体的な手順は以下のとおりです。プロセスの各ステップで、モデルが構築され、現場で実行されます。データの作成者は、ブロックチェーン データベースを使用してモデルにタイムスタンプを付けるだけで、デジタル署名とともに「この時点ではこのデータ/モデルは問題ないと考えています」と記載することができます。具体的には… モデリング元: センサーデータ(IoTを含む)。 IoT センサーが伝える情報を信頼していますか? トレーニング入力/出力 (X/y) データ。 たとえば、モデリング自体には、信頼できる実行インフラストラクチャを使用したり、計算を二重チェックするための TrueBit スタイルのマーケットプレイスを使用したりすることができます。少なくとも、モデル収束曲線のモデリング証拠は存在します (例: nmse** vs. epoch)。 モデルそのもの。 現場でのテストプロセス/ソース: 入力(X)データをテストします。 モデルシミュレーション。 Trusted Execution、TrueBit など テスト出力 (yhat) データ。 そのソースは、モデルの確立と適用のプロセスで取得できます。その結果、より信頼性の高い AI トレーニング データとモデルが実現します。このようなチェーン構造にすることもできます。半導体回路設計と同様に、基礎に至るまでモデルのモデル化。今では、すべてのものに由来があります。 利点は次のとおりです: データ サプライ チェーンのあらゆるレベル (最も広い意味で) における脆弱性を検出します。たとえば、センサーが嘘をついているかどうかがわかります。 データとモデルの出所を知っており、暗号認証された方法でそれを行います。 データ サプライ チェーンの脆弱性を見つけることができます。そうすれば、エラーが発生した場合、どこにエラーが発生し、どう対処すればよいかをより正確に把握できるようになります。これは、AI モデル向けの銀行スタイルの決済と考えることができます。 データに評判があるのは、複数の人がそのソースを調べ、データの有効性について独自の判断を下すことができるからです。したがって、このモデルは評判を得ました。 機会4: トレーニングデータとモデルのグローバル共有レジストリしかし、別のデータセットやデータフィード(無料または有料)を簡単に管理できるグローバル データベースがあったらどうなるでしょうか?これには、さまざまな機械学習コンテストからのさまざまな Kaggle データセット、スタンフォード ImageNet データセット、その他無数のデータセットが含まれます。 まさにこれが IPDB でできることです。ユーザーはデータセットを送信したり、他の人のデータを使用したりすることができます。データ自体は IPFS のような分散ファイルシステムに保存されます。メタデータ (およびデータ ポインター自体) は IPDB に格納されます。 AIデータセットのためのグローバルな共有スペースを獲得します。これは、オープンデータ コミュニティを構築するという夢の実現に役立ちます。 データセット レベルで停止する必要はありません。これらのデータセットから構築されたモデルも含めることができます。他の人のモデルを取得して実行したり、独自のモデルを送信したりするのは簡単なはずです。グローバル データベースは、このプロセスを大幅に促進する可能性があります。惑星が持つモデルを入手できます。 機会 5: IP 資産としてのデータとモデル → データとモデルの交換トレーニングデータとモデルに基づいた「グローバル共有登録システム」のこのアプリケーションを適用してみましょう。データとモデルはパブリックシェアの一部になることができます。しかし、それらは売買することもできます! データと AI モデルは著作権法によって保護されているため、知的財産 (IP) 資産として使用できます。これはつまり:
AI モデルの著作権を所有し、ライセンスを付与できるというのは、とても素晴らしいことだと思います。データは潜在的に巨大な市場として認識されています。モデルは続きます。ブロックチェーン技術が登場する前は、データとモデルの著作権とライセンスを主張することが可能でした。関連する法律はしばらく前から施行されています。しかし、ブロックチェーン技術は次のような理由でさらに優れています。
2013 年にデジタル アーティストが Ascribe を使用して報酬を得られるよう支援する仕事に就いていたとき、ブロックチェーン上の IP は私にとって非常に重要なものでした。当初のアプローチでは、規模とライセンスの柔軟性に問題がありました。最近関連記事に書いたように、これらは現在では克服されています (https://medium.com/ipdb-blog/a-decentralized-content-registry-for-the-decentralized-web-99cf1335291f#.v3jl6f9om)。このテクノロジーには以下が含まれます。
これにより、データとモデルが IP 資産として保持されます。 たとえば、私は ascribe を使用して、数年前に構築した AI モデルの著作権を主張しました。 AIモデルは、どのアナログ回路トポロジを使用するかを決定するCART(決定木)です。これはパスワードで保護された証明書 (COA) です。 データとモデルを資産として取得したら、資産の交換を開始できます。 DatastreamX がデータに対して行っているように、交換は集中化できます。しかし、これまでは、多くの企業がデータ共有のリスクがメリットを上回ると感じていたため、実際には公開データソースしか使用できませんでした。 分散型データとモデルの交換についてはどうでしょうか? 「交換」プロセス中に共有されるデータを分散化することで、新たな利点が生まれます。分散化プロセスでは、データ ストレージ インフラストラクチャを制御する単一のエンティティや、誰が何を所有しているかを示す台帳は存在しません。これにより、前述のように、コラボレーションやデータ共有の組織化が容易になります。たとえば、Deep Nets 用の OpenBazaar などです。 このような分散型取引所があれば、真のオープンデータ市場が出現するでしょう。これは、データおよび AI コミュニティ (私も含めて) の長年の夢を実現するものです。 もちろん、これらの取引に加えて、AI アルゴリズムを使用して AI モデルを購入するなど、AI アルゴリズムに基づく取引も発生します。 AI 取引アルゴリズムは、AI モデルを取引するためのアルゴリズムを購入し、自分で更新するというようになるかもしれません。 機会 5A: データとモデルの上流を制御する これは前回のアプリケーションの繰り返しです。 Facebook にログインすると、システムに入力したデータに対する操作権など、非常に具体的な権利を Facebook に付与することになります。個人データに対する権限を課します。 ミュージシャンがレーベルと契約すると、音楽の編集や配信など、非常に具体的な権利をレーベルに付与することになります。 (多くの場合、レーベルはすべての著作権を奪おうとしますが、これは非常に面倒な作業ですが、それはまた別の話です!) AI データと AI モデルについても同様です。モデリングに使用できるデータを作成するとき、およびモデル自体を作成するときに、事前に権限を指定して、上流で他のユーザーが実行できる操作を制限することができます。 個人データから音楽、AI データから AI モデルまで、あらゆるユースケースにおいて、ブロックチェーン テクノロジーはプロセスを大幅に簡素化します。ブロックチェーン データベースでは、読み取り権限やデータ/モデルを表示する権利など、権限を資産として扱います。権利保有者であるあなたは、ビットコインの転送と同様に、これらの権利を資産としてシステム内の他のユーザーに転送できます。転送トランザクションを作成し、秘密鍵で署名します。 これにより、AI トレーニング データ、AI モデルなどの上流の制御が向上します。 「たとえば、このデータをブレンドすることはできますが、ディープラーニングを行うことはできません。」 これは、DeepMind がヘルスケア ブロックチェーン プロジェクトで使用している戦略の一部に似ています。データマイニングでは、医療データは規制や独占禁止法の問題を引き起こすリスクがあります(特にヨーロッパでは)。しかし、ユーザーが本当に自分の医療データを所有し、その上流での使用を制御できるのであれば、DeepMind は消費者や規制当局に「実は、データの所有権は顧客にあり、私たちはそれを使用しているだけです」と簡単に言うことができます。私の友人ローレンス・ランディはこの素晴らしい例を挙げて、こう続けました。 政府がデータの私的所有(人間または AGI)を許可する唯一の方法は、AT&T や元の電話回線のようなデータ共有インフラストラクチャと「ネット中立性」ルールである可能性が十分にあります。この意味で、AI の自律性が高まり、長期的な持続可能性を実現するために、政府はブロックチェーンやその他のデータ共有インフラストラクチャを採用する必要があります。 -ローレンス・ランディ 機会6:分散型自律組織(DAO)—富を蓄積でき、シャットダウンできないAI これは嘘です。 AI DAO は人工知能自体に属しているため、シャットダウンすることはできません。以下に「方法」をまとめます。興味のある読者は、このトピックについてさらに詳しく知るために読み続けることができます。 これまで、分散型データベースとしてのブロックチェーンについて説明してきました。しかし、プロセスを分散化することもできます。基本的には、ステートマシンの状態を保存します。周囲に何らかのインフラストラクチャがあれば、これを実行するのは簡単になります。これが「スマート コントラクト」テクノロジー (Ethereum など) の本質です。 私たちはこれまで、コンピューターウイルスの形でプロセスを分散化してきました。これらを所有または管理する単一の組織はなく、シャットダウンすることもできません。しかし、それらには限界があり、基本的にはコンピュータに侵入しようとするだけです。 しかし、プロセスとより豊かなやりとりができ、プロセス自体が富を蓄積できるとしたらどうなるでしょうか?現在、これは、プロセスにおいてより優れた API (スマート コントラクト言語など) と分散型価値ストア (パブリック ブロックチェーンなど) を使用することで実現されています。 DAO はこれらの特性を具体化したプロセスです。そのコードは独自のものを保持できます。 人工知能についてお話しします。最も可能性の高い候補は、汎用人工知能 (AGI) として知られる AI のサブフィールドです。 AGI は、環境と対話する自律エージェントです。 AGI はフィードバック制御システムとしてモデル化できます。制御システムには多くの利点があるため、これは朗報です。まず第一に、それらは 1950 年代にまで遡る強力な数学的基礎を持っています (ウィーナーの「サイバネティクス」)。これらは、世界との相互作用(アクチュエーションとセンシング)をキャプチャし、それに適応します(内部モデルと外部センサーに基づいて状態を更新します)。制御システムが広く使用されています。これらは、単純なサーモスタットが目標温度にどのように適応するかを決定します。高価なヘッドフォンに見られるノイズを排除します。オーブンから車のブレーキまで、何千もの機器の心臓部となっています。 AIコミュニティは最近、制御システムの受け入れに熱心になっています。たとえば、それらは AlphaGo の鍵となります。そして、AGI 自体が制御システムです。 AI DAO は、分散型処理およびストレージ メディア上で実行される AGI スタイルの制御システムです。フィードバック ループは、これらのリソースを使用して、入力を取得し、状態を更新し、出力を実行するという動作を、自動的に繰り返します。 AI から始めて AI DAO (AGI エージェント) を取得し、分散化することができます。あるいは、DAO から始めて、AI による意思決定機能を付与することもできます。 人工知能は、欠けているリンク、つまりリソースを獲得します。 DAO は、欠けていたリンク、つまり自律的な意思決定を実現します。このため、AI DAO は AI や DAO 自体よりも使用範囲が広くなります。潜在的な影響も増大します。 以下にいくつかのアプリケーションを示します。
詳細については、AI DAOSパートIIを参照してください。本当に怖いものがいくつかあります…https://medium.com/@trentmc0/wild-wooly-ai-daos-d1719e040956#.r6akj4ne0 要約するAIとブロックチェーンの研究での私の個人的な経験に基づいて、この記事では、ブロックチェーンテクノロジーがAIを支援する方法について説明します。 2つの組み合わせが開始されます!ブロックチェーンテクノロジー - 特に惑星スケールでは、AIとデータコミュニティの長年の夢と機会のいくつかを実現するのに役立ちます。 要約すると: |
<<: スウェーデン人の70%以上がビットコインについて知っているが、中央銀行のデジタル通貨eKronaを期待しているのはわずか10%
>>: BBVA: ブロックチェーン規制はビットコインで止まるべきではない
Dagens Næringslivニュースネットワークが最近公開した記事では、日本の有名な投資銀行で...
微博ユーザーの「BCH愛好家ブルースリー」は微博でこう述べた。「BCHコミュニティの古参メンバーによ...
8,890.77元から6,144.64元へ…1月5日、ビットコインは1日で30%以上下落しました。...
30年以上の歴史を持つ老舗の一流イベントとして、数え切れないほどの偽造品や粗悪品メーカーを震え上がら...
タイラー・ベイン翻訳・編集:シェリー近年、ビットコインと、SHA-256 プルーフ・オブ・ワークを介...
クレイジーな解説:新興技術であるブロックチェーンは、ドバイの政府と企業を結び付け、官民協力の新しい時...
Bitreserve はビットコイン決済プロセッサです。昨年プラットフォームがオンラインになってか...
1. FTX が第 2 四半期に Alameda に大規模な救済措置を提供し、現在同社に打撃を与えて...
国際市場に混乱が生じるたびに(先週のBrexit事件など)、人々は価値を保つために金を購入することを...
この記事は、HaoBTCのCEOであるWu Gang氏によって書かれ、CoinTechに掲載されまし...
ビットコイン起業家でBloqの創設者であるジェフ・ガージク氏は、国際ブロックチェーン不動産協会(IB...
オーストラリアの最高証券規制機関であるASICは、中央銀行が発行する暗号通貨が将来的にはビットコイン...
これはVernacular Blockchainの1362番目のオリジナル号ですデザリー・スミス翻訳...
地元の暗号通貨企業の幹部によると、規制が明らかに欠如している中、暗号通貨取引がキューバに急増している...
既存のブロックチェーン基盤をベースに、産業化されたエンタープライズレベルのアプリケーションが実現され...