Amsterdam-Basis Orq.ai, eine generative KI-Plattform für Unternehmenrises, das sich in große Sprachmodelle (LLMs) integrieren lässt und die Zusammenarbeit im gesamten Unternehmen ermöglicht, gab bekannt, dass es sich weitere 1.5 Millionen Euro an Wachstumsfinanzierung gesichert hat.
Nach seiner überzeichneten Pre-Seed-Runde über 800 Euro im September 2023 stellt das niederländische Unternehmen zwei neue Produkte vor: Experiment und Optimieren.
Orq.ai sagt, dass es die Mittel verwenden wird, um das Produkt zu erweitern und auf den Markt zu bringen teams, mit einem primären Fokus auf den europäischen Markt, beginnend mit Deutschland und den Benelux-Ländern.
Investoren unterstützen Orq.ai
Die Verlängerungsrunde wurde angeführt von XO Ventures (Bart Malenstein und Marc van Meerwijk) und xdeck Ventures. Bestehende Investoren Neugier VC und Freizeit von Adriaan Mol (Gründer von Mollie und Bird CRM) nahm ebenfalls an dieser Runde teil.
Bart Malenstein, geschäftsführender Gesellschafter bei XO Ventures, sagt: „Wir freuen uns sehr auf die Zusammenarbeit mit den Gründern Sohrab und Anthony und dem gesamten Orq.ai team um ihnen bei der Weiterentwicklung und Einführung ihrer hochmodernen generativen KI-Plattform zu helfen.“
„Da die Komplexität und Anzahl generativer KI-Modelle weiter zunimmt, besteht ein großer Bedarf an einer Lösung, die KI-Transformationen ermöglicht und KI-Modelle nahtlos in das Unternehmen integriert.“
„Orq.ai bietet eine solche Lösung über eine äußerst benutzerfreundliche Plattform, die Nicht-Techniker unterstützt team Mitglieder wie Domänenexperten und Produktmanager. fügt Marc van Meerwijk, geschäftsführender Gesellschafter bei XO Ventures, hinzu.
Die neuen Produkte von Orq.ai
Orq.ai fördert integrative KI-Transformationen und bietet Tools und Sicherheitsmaßnahmen für alle team Mitglieder. Das Unternehmen hat neben den bestehenden zwei neue Produkte eingeführt, Experiment und Optimize Führen Sie Lösung, die Flexibilität für den unabhängigen Einsatz innerhalb von Organisationen bietet.
Experiment vereinfacht das Testen Tausender Anwendungsfälle, Eingabeaufforderungen und Datensätze für generative KI in über 75 Modellen und bietet benutzerdefinierte Kontrollen für Qualität, Kosten und Leistung.
Run, eine intelligente Regel-Engine, erleichtert die Produktionsbereitstellung mit Lokalisierung, Personalisierung und Datenschutzkontrolle. Optimize bietet Echtzeitanalysen zu KI-Modellinteraktionen und ermöglicht so kontinuierliche Verbesserungen und Feinabstimmungen durch Fachexperten.
Der End-to-End-Workflow von Orq.ai fördert die „nahtlose“ Zusammenarbeit zwischen Fachexperten, Produktmanagern und Ingenieuren.
Sohrab Hosseini, Mitbegründer von Orq.ai, sagt: „Die Komplexität und Geschwindigkeit neuer Möglichkeiten der generativen KI erfordern eine neue Arbeitsweise und neue Tools für Organisationen. Unser Ziel ist es, KI zu entmystifizieren, indem wir sie für jedermann zugänglich machen.“
„Mit unserer integrierten generativen KI-Plattform, die die höchsten EU-Sicherheits- und Datenschutzstandards erfüllt, ist Orq.ai der richtige Partner für Unternehmen, um wettbewerbsfähig zu bleiben. Wir sehen unsere bestehende Enterprise Kunden nutzen Orq.ai bereits als Wegbereiter für größere KI-Transformationen und neue Arbeitsweisen.“
„Anthony und ich freuen uns sehr über diese neue Finanzierungsrunde und freuen uns darauf, weiterhin neue Produkte auf den Markt zu bringen, die Kunden dabei helfen, KI-Innovationen sicher und verantwortungsvoll zu verinnerlichen.“
Orq.ai: Eine generative KI-Kollaborationsplattform
Orq.ai (ehemals Orquesta.cloud) wurde 2022 von Sohrab Hosseini und Anthony Diaz gegründet und zielt darauf ab, Unternehmen die Integration und den Betrieb ihrer Produkte zu ermöglichen Generative KI.
Die No-Code-Kollaborationsplattform stärkt das Produkt teams, produktionsreife KI-Anwendungen sicher zu erstellen und zu bewerten. Es zentralisiert das Prompt-Management, rationalisiert Experimente, sammelt Feedback und bietet Echtzeit-Einblicke in Leistung und Kosten.
Die Plattform ist mit den wichtigsten Anbietern von Large Language Models kompatibel und sorgt für Transparenz und Skalierbarkeit im Large Language Model Operations (LLM Ops), was zu kürzeren Kunden-Release-Zyklen und Kostensenkungen in Experimenten und Produktionsumgebungen führt.