KI, tokenisiert: Erkundung des ersten Modellangebots mit dem ORA-Protokoll

KI, tokenisiert: Erkundung erster Modellvorteile mit dem ORA-Protokoll

Zu Beginn des Jahres 2024, in dem sich KI als neuer Eckpfeiler der Krypto-Narrative herauskristallisiert, hat die Idee der KI-zentrierten Ausgabe von Vermögenswerten neue Wege für kreative Erkundungen aufgezeigt. BeInCrypto traf sich mit dem Gründer des ORA-Protokolls , Kartin Wong , um das Erstangebot des Modells (IMO) zu besprechen. Dieses neue Konzept hat bereits große Aufmerksamkeit erregt und hat das Potenzial, ein neuer Industriestandard zu werden.

Das ORA-Protokoll (früher bekannt als HyperOracle) ist ein testbares Oracle- Protokoll, das künstliche Intelligenz und komplexe Berechnungen in die Kette bringt. ORA erweitert die Möglichkeiten intelligenter Verträge durch die Integration umfangreicherer Datenquellen und Rechenleistung, sodass Entwickler ohne Einschränkungen Innovationen durchführen können. Die Lösungen von ORA haben das Vertrauen verschiedener Unternehmen gewonnen, darunter Compound, Ethereum Foundation, Optimism und Polygon.

Neue Ära in der Entwicklung künstlicher Intelligenz

In der Vergangenheit wurde die KI-Entwicklung durch einen monolithischen Monetarisierungsansatz eingeschränkt, der stark von proprietären Modellen und abonnementbasierten Diensten abhängig war. Dieses Modell schränkt den freien Austausch von Ideen ein und stellt Entwickler vor erhebliche finanzielle und ressourcenbezogene Hürden. Wongs ORA-Vision befasst sich mit den entscheidenden Herausforderungen, mit denen KI-Innovatoren konfrontiert sind, vor allem mit der Monetarisierung und Zugänglichkeit von KI-Modellen.

„Das größte Problem bei KI-Modellen besteht heute darin, dass sie noch nicht leistungsfähig genug sind, um die Probleme, die sie angehen sollen, vollständig zu lösen.“ Für eine breite Nutzung muss die Technologie Weltklasse sein, wie etwa ChatGPT, wofür die Entwicklung eines leistungsstarken Sprachmodells Hunderte Millionen Dollar an Investitionen erforderte. Die meisten KI-Unternehmen, insbesondere in ihren spezifischen Branchen, haben damit zu kämpfen, dass sie nicht über genügend Mittel verfügen, um ihre Produkte erfolgreich auf den Markt zu bringen. Dieser Mangel an Finanzierung stellt für viele KI-Unternehmen, die ihre Produkte auf den Markt bringen wollen, ein erhebliches Hindernis dar.“

ORA erkannte die Notwendigkeit eines neuen Modells, das Open-Source-Zusammenarbeit mit finanzieller Nachhaltigkeit in Einklang bringt, und führte das Konzept „IMO“ ein, das für „Initial Model Offer“ steht. Im Wesentlichen ist die Prämisse der IMO klar. Wenn die Tokenisierung für alles gilt, dann sind KI-Modelle keine Ausreißer und können für die Ausgabe von Vermögenswerten tokenisiert werden. Dies ermöglicht es den Entwicklern, ihre Investition wieder hereinzuholen und möglicherweise direkt von ihren Entwicklungen zu profitieren.

Nachdem ein Entwickler beispielsweise 5 Millionen US-Dollar in ein hochwertiges KI-Modell investiert hat, könnte er es als Open Source veröffentlichen, um seine Fähigkeiten zu verbessern. Durch die Tokenisierung des Modells und das Anbieten der Token unmittelbar nach der Einführung oder den Verkauf des Großteils davon an die Community können Ersteller mit einer Wertsteigerung der Token rechnen. Diese Strategie gibt dem Modellersteller nach der Einführung eines erfolgreichen Modells umgehend erhebliche Liquidität zurück.

Auch aus Anwendersicht erscheint ein solches Tool sehr interessant. Personen, die an ein bestimmtes KI-Modell glauben, können in den zugehörigen Token investieren. Sollte das Modell durch seine Anwendung wirtschaftliche Vorteile generieren, könnten Anleger einen Anteil an diesen Vorteilen erhalten.

„Ich stelle zum Beispiel ein KI-Modell in die Kette und jedes Mal, wenn ein Smart Contract oder Benutzer es nutzen möchte, zahlen sie mir etwa 0,01 ETH .“ Nach einer Woche nennen es etwa 10.000 Menschen On-Chain, sodass die Einnahmen für das Protokoll nun 100 ETH in einer Woche betragen. Diese ETH wird Modell-Token-Inhabern basierend auf der Höhe ihrer Investition zugute kommen.“

Der Gründer des ORA-Protokolls betont, wie wichtig es ist, die Menschen über IMOs und deren Auswirkungen auf die Finanzierung von KI-Projekten aufzuklären. Wenn das Angebot eines Modells erfolgreich ist und der Wert seines Tokens deutlich steigt, erregt es die Aufmerksamkeit der Menschen. Dies erhöht das Interesse und die Investitionen in Futures-IMOs und erhöht die Liquidität im KI-Sektor.

Den Paradigmenwechsel verstehen

Kartin ist sich bewusst, dass der Weg zu einem vollständig dezentralen und erlaubnisfreien Ökosystem voller technischer Herausforderungen ist. Dazu gehören die Sicherstellung der Modellintegrität, die Aufrechterhaltung von Leistungsstandards und das Erreichen einer echten Dezentralisierung, ohne das Vertrauen der Benutzer oder die Modellqualität zu beeinträchtigen.

ORA behebt die Hindernisse mithilfe von zwei ERC-Standards, ERC-7641 und ERC-7007, zusammen mit ihrem On-Chain-KI-Orakel. Schauen wir uns jede dieser Komponenten einzeln an.

  • ERC-7641 ist ein ERC-20-kompatibler Token-Standard. Um eine IMO zu starten, verbinden Entwickler das Modell mit einem ERC-7641-Asset und legen die Token-Nummern im Smart Contract fest. Anleger kaufen diese Token und erwerben so, ähnlich wie Aktionäre, im Verhältnis zu ihrem Anteil an den Token Eigentum am KI-Modell. Das ERC-7641-Protokoll legt Gewinnverteilungsregeln im Vertrag fest und ermöglicht eine automatische Gewinnbeteiligung basierend auf Token-Beständen.
  • ERC-7007 ist ein Token-Standard für KI-generierte Inhalte, der Authentizität und Rückverfolgbarkeit des Ursprungs gewährleistet. Es verwaltet KI-generierte Inhaltsmetadaten in der Blockchain und verwendet intelligente Verträge zur automatischen Überprüfung. Entwickler können Technologien wie zkML oder opML anwenden, um zu bestätigen, ob der durch künstliche Intelligenz generierte Inhalt (AIGC) für einen bestimmten NFT tatsächlich von einem bestimmten Modell und einer Eingabe für maschinelles Lernen stammt.
  • ORAs Onchain AI Oracle authentifiziert und operationalisiert KI-Modelle auf der Blockchain und stellt so sicher, dass die Bereitstellung und der Betrieb von KI-Modellen vollständig in der Kette erfolgt, und verbessert die Transparenz und Authentizität ihres Betriebsprozesses.

ORA hat außerdem zusätzliche Optimistic Machine Learning (opML)-Technologie integriert. KI-Modelle stellen oft entscheidende Wettbewerbsvorteile dar, und ihre vollständige Offenlegung könnte ihren kommerziellen Wert untergraben: opML kann wissensfreie Beweise oder ähnliche kryptografische Techniken verwenden, um die Genauigkeit der Modellergebnisse zu bestätigen, ohne die Details preiszugeben. Diese Methode bewahrt die Glaubwürdigkeit und Effizienz des Modells und schützt gleichzeitig seine Vertraulichkeit und seinen einzigartigen Vorteil.

Kartin ist sich jedoch bewusst, dass das Protokoll noch viel Arbeit vor sich hat, um sein Hauptziel zu erreichen.

„Das Hauptproblem bei der Tokenisierung von KI-Modellen besteht darin, dass wir wollen, dass sie erlaubnisfrei und vollständig dezentralisiert sind.“ Wir haben 18 Monate in Forschung und Entwicklung investiert, um es Wirklichkeit werden zu lassen; es ist sehr revolutionär. Das Problem ist jedoch, dass wir die einzigen sind, die eine opML-Bibliothek verwalten können, weil wir sie erfunden haben. Wenn Sie nun ein KI-Modell tokenisieren möchten, müssen Sie dem ORA-Protokoll folgen: Wir nehmen das Modell, kompilieren es über Kreuz und teilen dann das Docker-Image mit allen Knoten usw. In Zukunft werden wir völlig dezentral und erlaubnislos sein. Im Moment ist es dezentralisiert, aber es ist nicht völlig erlaubnisfrei.“

Ethische Implikationen und Weg zur regulatorischen Angleichung

Die Tokenisierung von KI-Modellen wirft wichtige ethische Fragen auf, insbesondere im Hinblick auf Missbrauch und Haftung. Das ORA-Protokoll begegnet diesen Herausforderungen mit einer zweigleisigen Strategie, die sich auf ethische Richtlinien und die Einhaltung gesetzlicher Vorschriften konzentriert. Kartin betont, wie wichtig es ist, einen Governance-Rahmen zu schaffen, der sich an globalen Standards orientiert und sicherstellt, dass das Potenzial tokenisierter KI-Modelle soziale und regulatorische Normen nicht überschreitet.

„Die größte ethische Herausforderung der IMO besteht darin, dass sie in Wirklichkeit nicht die IMO selbst ist. Es ist tatsächlich das Orakel der KI. Sobald ein KI-Modell auf der Blockchain platziert ist, kann es nicht ausgeschaltet werden, solange es von Menschen verwendet wird. Daher wird es einige Bedenken geben: Beispielsweise können Menschen mit einem KI-Modell unethische Inhalte generieren. Aber die Blockchain selbst hat die gleichen Bedenken. Manche Leute nutzen es, um Geld zu waschen, und es gibt keine Möglichkeit, es zu stoppen. Sobald Sie dies auf Bitcoin oder Ethereum tun, ist es vollständig dezentralisiert. Dann hat man keine Kontrolle mehr darüber.

Der ORA-Gründer weist darauf hin, dass ein Unternehmen, das ein KI-Modell einführt, eine IMO durchführt, die vollständige Compliance durch die Tokenisierung seines Modells sicherstellt, was nicht als Sicherheit eingestuft wird, insbesondere durch die Einhaltung der Vorschriften in den Vereinigten Staaten. Der Ansatz erfordert, dass jedes KI-Unternehmen, unabhängig von seinem globalen Standort, aufgrund unterschiedlicher Gesetze und Vorschriften in verschiedenen Ländern die Verantwortung für die Einhaltung übernimmt. Da der Hauptnutznießer einer IMO das KI-Unternehmen selbst ist, liegt es an ihm, sich an den spezifischen rechtlichen Rahmenbedingungen seiner jeweiligen Länder zu orientieren und diese einzuhalten.

Beispielsweise können sich die Vorschriften Singapurs zu KI und Tokenisierung erheblich von denen in den Vereinigten Staaten unterscheiden, sodass Unternehmen in Singapur alle potenziellen ethischen Bedenken im Zusammenhang mit ihren KI-Modellen unabhängig verwalten und abmildern müssen. Dies könnte die Implementierung von Governance-Mechanismen innerhalb der Token oder die Aufnahme einer schwarzen Liste in den Smart Contract umfassen, um unethische Nutzungen des KI-Modells zu verhindern. Dieses Prinzip der lokalen Verantwortung und Compliance gilt allgemein in allen Gerichtsbarkeiten.

Neuer Industriestandard

Die aktuelle Überschneidung von Kryptowährungsnarrativen mit der KI-Branche ergibt sich aus den Auswirkungen von KI auf die Fertigung. Diese Konvergenz ist besonders relevant, da die Blockchain-Technologie zwei große Herausforderungen im Bereich der künstlichen Intelligenz bewältigen kann. Das erste ist die Liquidität, die mit Initial Model Offerings (IMOs) angegangen wird, indem sie eine Plattform zur Finanzierung von KI-Modellen bereitstellen. Die zweite Herausforderung besteht darin, Transparenz zu gewährleisten, um zu verhindern, dass IMOs als undurchsichtig oder unzuverlässig wahrgenommen werden. Der Einsatz der Blockchain-Technologie kann die Authentizität dieser Angebote überprüfen und so zur Lösung von Vertrauens- und Transparenzproblemen beitragen.

Kartin ist fest davon überzeugt, dass alle Branchen, die KI in ihren Herstellungsprozessen einsetzen, von tokenisierten KI-Modellen profitieren werden, insbesondere durch einen sogenannten „On-Chain-Supervisor“. Dieses Konzept adressiert ein häufiges Problem in KI-Produktionsmodellen: nicht die Angst, dass sich die KI gegen den Menschen wendet, sondern das häufige Auftreten von Betriebsproblemen. Ein breiteres Sprachmodell (LLM) erkennt und löst solche Probleme. Wenn ein Benutzer ein technisches Problem vermutet, kann er oder sie das Problem diesem LLM melden und bewerten, ob das ursprüngliche KI-Modell ein technisches Problem aufweist.

Der beste Supervisor für diesen Zweck existiert in der Blockchain. Trotz der höheren Kosten besteht der Hauptvorteil darin, dass dieses überwachende KI-Modell rund um die Uhr einsatzbereit ist und eine ständige Überwachung der Leistung der auf lokalen Geräten eingesetzten KI-Modelle gewährleistet. Daher könnte jedes lokal operierende KI-Modell von der Verbindung mit einem tokenisierten On-Chain-KI-Modell profitieren, das als ständiger Supervisor fungiert.

In seinen abschließenden Gedanken weist Kartin darauf hin, dass die Aufregung um den Bereich der KI-Kryptowährung voraussichtlich anhalten wird, solange es neue Entwicklungen und Entdeckungen gibt. Angesichts dieser Dynamik dürfte die Dynamik im KI-Bereich, die sowohl durch Fortschritte als auch durch die Integration in die Blockchain vorangetrieben wird, noch über einen längeren Zeitraum anhalten.

„KI wird bleiben und was wir hier tun, ist die Lösung des Hauptanliegens aller KI-Unternehmen auf der Welt.“ Dies wird also enormen Wert für Kryptowährungen und auch für alle KI-Unternehmen bringen. Ich denke, meiner Meinung nach wird es die Geschichte des Jahres, des gesamten Zyklus sein. Ich denke, nach diesem Jahr wird die Einführung eines KI-Modells zu 100 % zum Industriestandard für die Durchführung von Aufgaben werden.“

Der Beitrag AI, Tokenized: Exploring the Initial Offering Model with the ORA Protocol erschien zuerst auf BeInCrypto .