Die besten Sprachmodelle für digitale Produkte im Juli 2024

Die TIMETOACT GROUP LLM Benchmarks zeigen die leistungsstärksten KI-Sprachmodelle für die digitale Produktentwicklung. Erfahren Sie, welche Sprachmodelle im Juli am besten abgeschnitten haben.

Basierend auf echten Benchmark-Daten aus unseren eigenen Softwareprodukten haben wir die Leistungsfähigkeit verschiedener LLM-Modelle bei der Bewältigung spezifischer Herausforderungen bewertet. Dabei wurden spezifische Kategorien wie Dokumentenverarbeitung, CRM-Integration, externe Integration, Marketingunterstützung und Codegenerierung untersucht.  

Juli 2024 war ein sehr spannender Monat in der Welt der generativen KI. Es wurden sogar ein paar Grenzen verschoben.

Die Highlights des Monats:

  • Codestral-Mamba 7B - neue effiziente LLM-Architektur, die erstaunlich gute Ergebnisse erzielt
  • GPT-4o Mini - günstiges, leichtes Modell. Das beste in seiner Klasse!

  • Mistral Nemo 12B - anständiges downloadbares Modell in seiner Klasse, entwickelt für Quantisierung (Kompression)

  • Mistral Large 123B v2 - lokales Modell, das das Niveau von GPT-4 Turbo v3 und Gemini Pro 1.5 erreicht. Es wäre das beste lokale Modell, wäre da nicht Meta Llama 3.1:

  • Meta Llama 3.1 - eine Reihe von Modellen mit freizügiger Lizenz, die in unserem Benchmark neue Rekorde aufgestellt haben.

    +++ Update +++

  • Gemini Pro 1.5 v0801 - Google schafft es plötzlich mit OpenAI gleichzuziehen und schafft es in die Top 3!

LLM Benchmarks | Juli 2024

Unsere Benchmarks bewerten die Modelle in Bezug auf ihre Eignung für die digitale Produktentwicklung. Je höher die Punktezahl, desto besser.

☁️ - Cloud-Modelle mit proprietärer Lizenz
✅ - Open-Source-Modelle, die lokal ohne Einschränkungen ausgeführt werden können
🦙 - Lokale Modelle mit Llama2-Lizenz

Eine genauere Erläuterung zu den jeweiligen Kategorien finden Sie unter der Tabelle.

ModellCodeCrmDocsIntegrateMarketingReasonErgebnisKostenSpeed
GPT-4o ☁️9095100908275891.21 €1.50 rps
GPT-4 Turbo v5/2024-04-09 ☁️869998938845852.45 €0.84 rps
Google Gemini Pro 1.5 0801 ☁️8492901007072851.48 €0.83 rps
GPT-4 v1/0314 ☁️908898528850787.04 €1.31 rps
Claude 3.5 Sonnet ☁️728389788059770.94 €0.09 rps
GPT-4 v2/0613 ☁️908395528850767.04 €2.16 rps
GPT-4 Turbo v4/0125-preview ☁️6697100717545762.45 €0.84 rps
GPT-4o Mini ☁️6387805210067750.04 €1.46 rps
Claude 3 Opus ☁️6988100537659744.69 €0.41 rps
Meta Llama3.1 405B Instruct🦙819392557546742.39 €1.16 rps
GPT-4 Turbo v3/1106-preview ☁️667598528862732.46 €0.68 rps
Mistral Large 123B v2/2407 ☁️687968757571730.86 €1.02 rps
Gemini Pro 1.5 0514 ☁️7396751002562722.01 €0.92 rps
Meta Llama 3.1 70B Instruct f16🦙748990557546721.79 €0.90 rps
Gemini Pro 1.5 0409 ☁️689796637528711.84 €0.59 rps
GPT-3.5 v2/0613 ☁️688173758148710.34 €1.46 rps
GPT-3.5 v3/1106 ☁️687071637859680.24 €2.33 rps
Gemini Pro 1.0 ☁️668683608826680.09 €1.36 rps
GPT-3.5 v4/0125 ☁️638771607847680.12 €1.43 rps
Gemini 1.5 Flash 0514 ☁️3297100567241660.09 €1.77 rps
Cohere Command R+ ☁️638076497059660.83 €1.90 rps
Qwen1.5 32B Chat f16 ⚠️709082567815650.97 €1.66 rps
GPT-3.5-instruct 0914 ☁️479269608832650.35 €2.15 rps
Mistral Nemo 12B v1/2407 ☁️545851977550640.07 €1.22 rps
Mistral 7B OpenChat-3.5 v3 0106 f16 ✅688767528823640.32 €3.39 rps
Meta Llama 3 8B Instruct f16🦙796268498042640.32 €3.33 rps
GPT-3.5 v1/0301 ☁️558269678224630.35 €4.12 rps
Gemma 7B OpenChat-3.5 v3 0106 f16 ✅636784338148630.21 €5.09 rps
Llama 3 8B OpenChat-3.6 20240522 f16 ✅765176458839620.28 €3.79 rps
Mistral 7B OpenChat-3.5 v1 f16 ✅587272498831620.49 €2.20 rps
Mistral 7B OpenChat-3.5 v2 1210 f16 ✅637372458828610.32 €3.40 rps
Starling 7B-alpha f16 ⚠️586667528836610.58 €1.85 rps
Yi 1.5 34B Chat f16 ⚠️477870528628601.18 €1.37 rps
Claude 3 Haiku ☁️646964557533600.08 €0.52 rps
Mixtral 8x22B API (Instruct) ☁️53626294757590.17 €3.12 rps
Meta Llama 3.1 8B Instruct f16🦙577462527434590.45 €2.41 rps
Codestral Mamba 7B v1 ✅536651947117590.30 €2.82 rps
Meta Llama 3.1 70B Instruct b8🦙607675308126585.28 €0.31 rps
Claude 3 Sonnet ☁️724174527830580.95 €0.85 rps
Qwen2 7B Instruct f32 ⚠️508181396629580.46 €2.36 rps
Mistral Large v1/2402 ☁️374970758425572.14 €2.11 rps
Anthropic Claude Instant v1.2 ☁️587565596514562.10 €1.49 rps
Anthropic Claude v2.0 ☁️635255458435552.19 €0.40 rps
Cohere Command R ☁️456657558426550.13 €2.50 rps
Qwen1.5 7B Chat f16 ⚠️568160346036550.29 €3.76 rps
Anthropic Claude v2.1 ☁️295859607533522.25 €0.35 rps
Mistral 7B OpenOrca f16 ☁️545776217826520.41 €2.65 rps
Qwen1.5 14B Chat f16 ⚠️505851498417510.36 €3.03 rps
Meta Llama 3 70B Instruct b8🦙517253298218516.97 €0.23 rps
Mistral 7B Instruct v0.1 f16 ☁️347169446221500.75 €1.43 rps
Llama2 13B Vicuna-1.5 f16🦙503753398238500.99 €1.09 rps
Google Recurrent Gemma 9B IT f16 ⚠️582771455625470.89 €1.21 rps
Codestral 22B v1 ✅384743716613460.30 €4.03 rps
Llama2 13B Hermes f16🦙502430616043451.00 €1.07 rps
Llama2 13B Hermes b8🦙412529616043434.79 €0.22 rps
Mistral Small v2/2402 ☁️33423682568430.18 €3.21 rps
Mistral Small v1/2312 (Mixtral) ☁️10676551568430.19 €2.21 rps
IBM Granite 34B Code Instruct f16 ☁️63493044575411.07 €1.51 rps
Mistral Medium v1/2312 ☁️414327596212410.81 €0.35 rps
Llama2 13B Puffin f16🦙371538485641394.70 €0.23 rps
Mistral Tiny v1/2312 (7B Instruct v0.2) ☁️22475740598390.05 €2.39 rps
Llama2 13B Puffin b8🦙371437465639388.34 €0.13 rps
Meta Llama2 13B chat f16🦙22381745758340.75 €1.44 rps
Meta Llama2 13B chat b8🦙22381545756333.27 €0.33 rps
Mistral 7B Zephyr-β f16 ✅37344644294320.46 €2.34 rps
Meta Llama2 7B chat f16🦙223320425020310.56 €1.93 rps
Mistral 7B Notus-v1 f16 ⚠️10542541484300.75 €1.43 rps
Orca 2 13B f16 ⚠️182232226719300.95 €1.14 rps
Mistral 7B Instruct v0.2 f16 ☁️11305013588290.96 €1.12 rps
Mistral 7B v0.1 f16 ☁️0942425212260.87 €1.23 rps
Google Gemma 2B IT f16 ⚠️332814391520250.30 €3.54 rps
Microsoft Phi 3 Medium 4K Instruct f16 ⚠️5343013478230.82 €1.32 rps
Orca 2 7B f16 ⚠️2202418524200.78 €1.38 rps
Google Gemma 7B IT f16 ⚠️0009620120.99 €1.08 rps
Meta Llama2 7B f16🦙0518328290.95 €1.13 rps
Yi 1.5 9B Chat f16 ⚠️042980881.41 €0.76 rps

Die Benchmark-Kategorien im Detail

Hier erfahren Sie, was wir mit den unterschiedlichen Kategorien der LLM Leaderboards genau untersuchen

Wie gut kann das Modell mit großen Dokumenten und Wissensdatenbanken arbeiten?

Wie gut unterstützt das Modell die Arbeit mit Produktkatalogen und Marktplätzen?

Kann das Modell problemlos mit externen APIs, Diensten und Plugins interagieren?

Wie gut kann das Modell bei Marketingaktivitäten unterstützen, z.B. beim Brainstorming, der Ideenfindung und der Textgenerierung?

Wie gut kann das Modell in einem gegebenen Kontext logisch denken und Schlussfolgerungen ziehen?

Kann das Modell Code generieren und bei der Programmierung helfen?

Die geschätzten Kosten für die Ausführung der Arbeitslast. Für cloud-basierte Modelle berechnen wir die Kosten gemäß der Preisgestaltung. Für lokale Modelle schätzen wir die Kosten auf Grundlage der GPU-Anforderungen für jedes Modell, der GPU-Mietkosten, der Modellgeschwindigkeit und des operationellen Overheads.

Die Spalte "Speed" gibt die geschätzte Geschwindigkeit des Modells in Anfragen pro Sekunde an (ohne Batching). Je höher die Geschwindigkeit, desto besser.


Tiefere Einblicke

Codestral Mamba 7B

Mistral AI hat diesen Monat eine ganze Reihe von Veröffentlichungen gemacht, aber Codestral Mamba ist unser Favorit. Es ist nicht extrem leistungsgstark, vergleichbar mit Modellen wie Llama 3.1 8B oder Claude 3 Sonnet. Aber es gibt auch ein paar Nachteile:

  • Dieses Modell ist nicht für Produkt- oder Businessaufgaben konzipiert, es ist ein Coding-Modell. Dennoch konkurriert es gut mit Allzweckmodellen.

  • Das Modell hat nicht die gut erforschte Transformer-Architektur implementiert, sondern eine Mamba (auch bekannt als Linear-Time Sequence Modeling with Selective State Spaces). Diese Architektur gilt als ressourceneffizienter und hat weniger Beschränkungen bei der Arbeit mit großen Kontexten. Es gab mehrere Versuche, ein gutes Mamba-Modell zu trainieren, aber dies ist das erste Modell, das in unserer Rangliste gute Ergebnisse erzielt.

  • Das neue Modell ist für den lokalen Gebrauch verfügbar, man kann es direkt von HuggingFace beziehen. Nvidia TensorRT-LLM unterstützt dieses Modell bereits.

GPT-4o Mini

GPT-4o Mini ist ein neues multimodales Modell von OpenAI. Es ähnelt in seiner Klasse den GPT-3.5-Modellen, hat aber bessere Gesamtergebnisse. Seine Grundfähigkeiten sind ziemlich groß für ein so kleines Modell. GPT-4o Mini ist auch das erste Modell, das in unserer Kategorie Marketing (Tests, die mit Sprache und Schreibstilen arbeiten) eine perfekte 100 erreicht hat.

Angesichts der extrem niedrigen Kosten und der guten Ergebnisse scheint der GPT-4o Mini perfekt für kleine, fokussierte Aufgaben wie Router und Klassifikatoren in LLM-gesteuerten Produkten geeignet zu sein. Auch Datenextraktionsaufgaben in großem Maßstab sehen gut aus.

Mistral Nemo 12B

Wie es scheint, hat Mistral AI eine Menge Anstrengungen in die Spitzenforschung und -entwicklung gesteckt. Der Mistral Nemo 12B ist ein weiteres Beispiel dafür.

Einerseits ist dieses Modell etwas größer als frühere 7B-Modelle von Mistral AI. Andererseits hat es ein paar interessante Nuancen, die das wieder wettmachen.

Erstens verfügt das Modell über einen besseren Tokeniser, was zu einer effizienteren Verwendung von Token führt (weniger Token pro Eingabe und Ausgabe erforderlich).

Zweitens wurde das Modell zusammen mit Nvidia unter Verwendung eines quantisierungssensitiven Trainings trainiert. Das bedeutet, dass das Modell von Anfang an auf einen ressourceneffizienten Betrieb ausgelegt ist. In diesem Fall ist das Modell so konzipiert, dass es im FP8-Modus gut funktioniert, was bedeutet, dass die Modellgewichte ein Viertel der üblichen Größe im Speicher einnehmen (im Vergleich zum FP32-Format). Hier ist die Ankündigung von Nvidia.

Es ist ein netter Zufall, dass NVidia-GPUs mit CUDA Compute 9.0-Generation darauf ausgelegt sind, FP8 nativ auszuführen (z. B. H100-GPUs für Rechenzentren)

Wenn Sie die neuesten GPUs haben, kann dieses Mistral Nemo Modell ein guter Ersatz für die früheren 7B Modelle von Mistral AI sein. Da das Modell auch einen hohen Reason-Wert erzielt, besteht die Chance, dass die Feinabstimmung das Modell noch höher treibt.

Sie können dieses Modell von Hugging Face herunterladen oder über die MistralAI API verwenden.

Mistral Large 123B v2

Mistral Large v2 ist derzeit das beste Modell von Mistral in unseren Benchmarks. Es steht zum Download zur Verfügung, d.h. Sie können es auf Ihren lokalen Rechnern ausführen (obwohl für die kommerzielle Nutzung eine Lizenz erforderlich ist).

Dieses Modell hat auch einen großen Kontext von 128 Token. Es behauptet, dass es mehrere Sprachen unterstützt, sowohl menschliche als auch Programmiersprachen.

In unserem Benchmark hat dieses Modell wirklich gute Ergebnisse und eine ungewöhnlich hohe Reason-Fähigkeit. Es ist vergleichbar mit GPT-4 Turbo v3, Gemini Pro 1.5 und Claude 3 Opus.

Die ungewöhnliche Größe dieses Mistral Modells könnte darauf hindeuten, dass es auch mit FP8 Awareness trainiert wurde, um die 70B Modi in ihrem Lineup zu ersetzen (12:7 ~~ 123:80). Wenn das der Fall ist, könnten wir einen allgemeinen Trend sehen, bei dem neue Modelle in diesen ungeraden Größen auftauchen werden. Sie werden allerdings nur auf den neuesten GPUs gut laufen. Dies kann die LLM-Landschaft fragmentieren und den Fortschritt verlangsamen.

Das Lineup der besten Mistral-Modelle sieht derzeit wie folgt aus:

Llama 3.1 Models from Meta

Meta hat ein Update seiner Llama 3.1-Reihe veröffentlicht, das 3 Modellgrößen umfasst: 8B, 70B und 405B. Sie können alle Modelle von HuggingFace herunterladen und lokal verwenden. Die meisten KI-Anbieter bieten auch Unterstützung über API an.

Wir haben kleinere Modelle lokal getestet und Google Vertex AI für 405B verwendet. Google hat die Integration so gut wie nicht vermasselt (Sie müssen eventuell die Zeilenumbrüche korrigieren und zusätzliche Token am Anfang der Eingabeaufforderung abschneiden).

Das Modell 8B ist nicht so interessant - es schneidet schlechter ab als die vorherige Version 3.0, also lassen wir es weg. Die beiden anderen Modelle sind viel interessanter.

Meta Llama 3.1 70B hat einen massiven Qualitätssprung gemacht, wenn man es mit der vorherigen Version vergleicht. Es hat Gemini Pro 1.5 erreicht, GPT-3.5 übertroffen und Mistral Large 123B v2 erreicht. Das sind großartige Neuigkeiten, denn wir können die Qualität des 123B-Modells mit einem kleineren Modell erreichen.

Beachten Sie übrigens, dass Llama 3.1-Modelle ziemlich empfindlich auf Quantisierung (Komprimierung) reagieren können. Wenn wir z.B. ein 70B-Modell mit einer 8bit-Quantisierung (über bitsandbytes) laufen lassen, wird die Leistung und Qualität drastisch sinken:

Meta Llama 3.1 405B Instruct

Meta Llama 3.1 405B Instruct ist der letzte Held des Monats. Dies ist das erste Modell, das es geschafft hat, den GPT-4 Turbo (seine schwächste Version Turbo v3/1106) zu schlagen. Sie können es in den TOP 10 unseres Benchmarks finden:

Es ist ein großes Modell. Sie benötigen 640 GB VRAM (8xH100/A100), nur um es im FP8 mit einem kleinen Batch- und Kontextfenster zu betreiben. Allein die Ressourcenanforderungen bedeuten, dass nur sehr wenige dieses Modell verwenden werden, wenn man es mit 70B/8B-Varianten vergleicht. Es wird weniger interessante Feinabstimmungen und Lösungen geben.

Aber das ist alles nicht so wichtig. Die wichtigen Punkte sind:

  • Dies ist ein Modell, das Sie herunterladen und lokal verwenden können.

  • Es übertrifft eines der GPT-4-Modelle

  • Es übertrifft Mistral Large 2 in der Qualität, während es eine freizügigere Lizenz hat

  • Es erreicht die Qualität von Claude 3 Opus.

Dies ist ein kleiner Durchbruch. Wir sind sicher, dass irgendwann auch kleinere Modelle dieses Niveau erreichen werden.

Update: Google Gemini 1.5 Pro Experimental v0801

Normalerweise führen wir keine Benchmark-Updates nach der Veröffentlichung durch, aber diese Nachricht hat es verdient. Einen Monat zu warten, um über das neue Google Gemini-Modell zu berichten, wäre eine Verschwendung.

Dieses Modell wurde am ersten August als öffentliches Experiment veröffentlicht (Sie können es im Google AI Studio finden). Zu diesem Zeitpunkt wurde auch bekannt, dass das Modell seit einiger Zeit in der LMSYS Chatbot Arena läuft und mit mehr als 12.000 Stimmen an der Spitze steht.

Wir haben unseren eigenen Benchmark über die Google AI Studio API durchgeführt (das Modell ist noch nicht auf Vertex AI verfügbar). Die Ergebnisse sind wirklich beeindruckend. Wir sprechen hier von einem erheblichen Sprung in den Modellfähigkeiten gegenüber der ersten Version von Gemini Pro 1.5 im April.

Dieses Google-Modell schaffte es plötzlich, fast alle GPT-4-Modelle zu überholen und zur Spitze aufzuschließen und den dritten Platz zu belegen. Die Ergebnisse sind solide.

Die Ergebnisse hätten sogar noch besser ausfallen können, wenn Gemini Pro 1.5 mehr darauf geachtet hätte, die Anweisungen genau zu befolgen. Während extreme Detailgenauigkeit bei menschlichen Interaktionen nicht immer erforderlich ist, ist sie bei Produkten und LLM-Pipelines, die bei unseren Kunden eingesetzt werden, unerlässlich. Die beiden besten Modelle von OpenAI übertreffen diese Fähigkeit noch.

Dennoch gibt es hervorragende Neuigkeiten: Erstens haben wir eine neue Innovationsquelle, die es geschafft hat, mit OpenAI gleichzuziehen (und wir dachten, dass Google aus dem Rennen ist). Zweitens werden Unternehmen, die sich stark in der Google Cloud engagieren, endlich Zugang zu einem hochwertigen großen Sprachmodell innerhalb des Ökosystems erhalten.

Und wer weiß, ob es Google Gemini 2.0 gelingt, die Modellfähigkeiten noch weiter zu steigern. Das Tempo des Fortschritts war bisher recht beeindruckend. Überzeugen Sie sich einfach selbst:


Local AI and Compliance

Wir beobachten diesen Trend schon seit geraumer Zeit. Lokale Modelle werden mit der Zeit immer leistungsfähiger und übertreffen komplexere Closed-Source-Modelle.

Lokale Modelle sind für viele Kunden recht interessant, da sie viele Probleme in Bezug auf Datenschutz, Vertraulichkeit und Compliance zu lösen scheinen. Die Wahrscheinlichkeit, dass private Daten nach außen dringen, ist geringer, wenn Ihre LLMs vollständig in Ihren Räumlichkeiten innerhalb des Sicherheitsbereichs laufen, oder?

Nuancen und neue Regulierungen: Das EU-KI-Gesetz

Es gibt jedoch noch einige Nuancen. Ab dem 01. August 2024 tritt in der EU das Gesetz über künstliche Intelligenz in Kraft. Es schafft einen gemeinsamen regulatorischen und rechtlichen Rahmen für KI in der EU, wobei verschiedene Bestimmungen innerhalb der nächsten 3 Jahre langsam in Kraft treten werden.

Das EU-KI-Gesetz regelt nicht nur KI-Anbieter (wie OpenAI oder MistralAI), sondern auch Unternehmen, die KI in einem professionellen Kontext nutzen.

Risikobasierte Regulierung: Was bedeutet das für Ihr Unternehmen?

Natürlich wird nicht jeder auf die gleiche Weise reguliert werden. Die Regulierung basiert auf den Risikostufen, und die meisten KI-Anwendungen dürften in die Kategorie "minimales Risiko" fallen. Es ist jedoch recht einfach, in die höhere Risikokategorie einzusteigen (z. B. wenn KI Bildmanipulationen ermöglicht, im Bildungswesen oder bei der Personalbeschaffung eingesetzt wird).

Sorgfaltspflicht: Mehr als nur lokale Modelle

Mit anderen Worten: Eine gewisse Sorgfaltspflicht wird für alle großen Unternehmen erforderlich sein. Die Aussage "Wir verwenden nur lokale Modelle" ist möglicherweise nicht ausreichend.

Checkliste zur Einhaltung der KI-Vorschriften

Hier ist ein kurzer Check, um zu sehen, ob Sie auf dem richtigen Weg sind, um die Einhaltung der Vorschriften für Ihr KI-System zu gewährleisten. Haben Sie die Antworten auf diese Fragen dokumentiert und in Ihrem Unternehmen klar kommuniziert?

  • Wer sind die Hauptnutzer Ihres Systems? Welches sind die Branchen und spezifischen Anwendungen Ihres Systems? Wie ist hier die Risikoklassifizierung?

  • Wie lauten der genaue Name, die Version, der Anbieter und die Plattform/Umgebung Ihrer KI-Komponenten?

  • Wie lauten die Zugehörigkeiten und Partnerschaften Ihrer KI-Anbieter? Wie lauten die Lizenzierungsbedingungen?

  • Wo werden Ihre Systeme geografisch eingesetzt? Unter welcher Rechtsprechung laufen Ihre KI-Systeme?

  • Wer ist für das System und die Prozesse zum Management von KI-Risiken in Ihrem Unternehmen verantwortlich?

  • Wer ist für die Dokumentation und die Kommunikation Ihres KI-Systems verantwortlich (einschließlich Dingen wie Architektur, Komponenten, Abhängigkeiten, funktionale Anforderungen und Leistungsstandards)?

Ihr Weg zur KI-Compliance

Wenn Sie konkrete Antworten auf diese Fragen haben, stehen die Chancen gut, dass Sie mit der KI-Compliance bereits auf einem guten Weg sind. Das bedeutet auch, dass Ihr Unternehmen bei der Evaluierung von LLM-gesteuerten Lösungen den Compliance-Aufwand verschiedener Optionen im Auge behalten wird.

Sie können sich jederzeit an uns wenden, wenn Sie Fragen zur KI-Compliance haben oder das Thema näher erörtern möchten.


LLM Benchmarks Archiv

Interessiert an den Benchmarks der vergangenen Monate? Alle Links dazu finden Sie auf unserer LLM Benchmarks-Übersichtsseite!

Mehr erfahren

Transformieren Sie Ihre digitalen Projekte mit den besten KI-Sprachmodellen!

Entdecken Sie die transformative Kraft der besten LLM und revolutionieren Sie Ihre digitalen Produkte mit KI! Bleiben Sie zukunftsorientiert, steigern Sie die Effizienz und sichern Sie sich einen klaren Wettbewerbsvorteil. Wir unterstützen Sie dabei, Ihren Business Value auf das nächste Level zu heben.

* Pflichtfelder

Wir verwenden die von Ihnen an uns gesendeten Angaben nur, um auf Ihren Wunsch hin mit Ihnen Kontakt im Zusammenhang mit Ihrer Anfrage aufzunehmen. Alle weiteren Informationen können Sie unseren Datenschutzhinweisen entnehmen.

Martin WarnungSales Consultant

martin.warnung@timetoact.at


Blog
Blog

ChatGPT & Co: Oktober-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks für Oktober 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

ChatGPT & Co: September-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks vom September 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

ChatGPT & Co: November-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks für November 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

ChatGPT & Co: Dezember-Benchmarks für Sprachmodelle

Entdecken Sie die neuesten Erkenntnisse aus unseren unabhängigen LLM Benchmarks für Dezember 2024. Erfahren Sie, welche großen Sprachmodelle am besten abgeschnitten haben.

Blog
Blog

In 8 Schritten zu AI-Innovationen im Unternehmen

Künstliche Intelligenz hat sich von einem bloßen Schlagwort zu einem entscheidenden Werkzeug entwickelt, Business Value in Unternehmen zu generieren. Wir verfolgen einen achtstufigen Ansatz, um Unternehmen den Weg zur effektiven Nutzung von AI zu ermöglichen.

Martin WarnungMartin WarnungBlog
Blog

Fehler in der Entwicklung von AI-Assistenten

Wie gut, dass es Fehler gibt: Denn aus ihnen können wir lernen und besser werden. Wir haben genau hingesehen, wie Unternehmen in den letzten Monaten weltweit AI-Assistenten implementiert haben, und haben sie, leider, vielfach beim Scheitern beobachtet. Wie es zum Scheitern kam und was man daraus für künftige Projekte lernen kann, das möchten wir mit Ihnen teilen: Damit AI-Assistenten in Zukunft erfolgreicher umgesetzt werden können!

Jörg EgretzbergerJörg EgretzbergerBlog
Blog

8 Tipps zur Entwicklung von AI-Assistenten

AI-Assistenten für Unternehmen sind ein Hype, und viele Teams arbeiteten bereits eifrig und voller Tatendrang an ihrer Implementierung. Leider konnten wir allerdings sehen, dass viele Teams, welche wir in Europa und den USA beobachten konnten, an der Aufgabe gescheitert sind. Wir bieten Ihnen 8 Tipps, damit Ihnen nicht dasselbe passiert.

Matthias BauerMatthias BauerBlog
Blog

Deep Learning: Ein Beispiel aus dem öffentlichen Dienst

Automatische Bilderkennung hat das Potenzial, Wasserwirtschaftsverbände spürbar zu entlasten – und so beim Hochwasserschutz zu unterstützen. Ein Fallbeispiel.

novaCapta
Event
novaCapta: Ihr Partner für die digitale Transformation mit Microsoft Technologien
Event

Webinar: Microsoft Fabric: Was kann die All-in-One-Plattform

Daten sind das Fundament für Geschäftsprozesse, Analysen, Entscheidungen, KI-Nutzung und vielem mehr. Microsoft Fabric ist der Ausgangspunkt für die Handhabe der vielen wertvollen Unternehmensdaten. Was kann die Datenplattform? Jetzt zum Webinar anmelden!

Kompetenz
Kompetenz

Graphentechnologie

Wir helfen Ihnen, das volle Potential der Graphen zu nutzen, um Ihr Unternehmen zu transformieren. Unser Fachwissen reicht von der Modellierung von Graphdatenbanken und Graph Data Science bis hin zu generativer KI.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Microsoft Azure-Ressourcen automatisch skalieren

Im Blog stellen wir Ihnen Autoscale in Azure vor und zeigen, warum es sich lohnt, diese mit der automatischen Skalierung mit IBM Turbonomics zu kombinieren.

TIMETOACT
Technologie
Headerbild zu IBM Cloud Pak for Data Accelerator
Technologie

IBM Cloud Pak for Data Accelerator

Zum schnellen Einstieg in bestimmte Use Cases, konkret für bestimmte Geschäftsbereiche oder Branchen, bietet IBM auf Basis der Lösung „Cloud Pak for Data“ sogenannte Akzeleratoren, die als Vorlage für die Projektentwicklung dienen, und dadurch die Umsetzung dieser Use Cases deutlich beschleunigen können. Die Plattform selbst bringt alle notwendigen Funktionen für alle Arten von Analyticsprojekten mit, die Akzeleratoren den entsprechenden Inhalt.

TIMETOACT GROUP
Jan HachenbergerJan HachenbergerBlog
Blog

Business Innovation und Digitale Transformation mit AI

Die Implementierung von AI bietet enormes Potenzial für Unternehmen – von Effizienzsteigerungen bis hin zu völlig neuen Geschäftsmodellen. Doch wie jede technologische Revolution birgt sie auch Risiken und Fallstricke. In diesem Blogbeitrag werfen wir einen Blick auf die Potenziale von AI für Unternehmen und auf die häufigsten Fehler, die Sie bei der Einführung vermeiden sollten.

novaCapta
Blog
African American Business woman hard working, debtor, deferred debt, Times Interest Earned, Subsidiary Ledger, Special Journal, Shareholders Equity, Scrap value, Price Index, Profitability Ratios
Blog

Dokumentenmanagement mit GPT optimieren

KI und GPT sind in aller Munde. Doch welche konkreten Use Cases sind möglich? Wie sieht die Einführung aus? Wir zeigen Ihnen, wie einer unserer Kunden Dokumentenmanagement durch den Einsatz von GPT revolutioniert hat.

novaCapta
Blog
Smile, work and a businessman with a laptop for an email, communication or online coding. Happy, programming and a male programmer typing on a computer for web or software development in an office
Blog

Mit Microsoft Copilot in die Zukunft des Arbeitens

Microsoft Copilot in aller Munde. Auch wir werden in letzter Zeit häufig nach Copilot und Künstlicher Intelligenz im Allgemeinen gefragt. Deshalb beantworten wir in diesem Blogbeitrag die häufigsten Fragen und Bedenken kompakt und einfach!

novaCapta
Blog
Frau arbeitet remote mit Smartphone und Laptop
Blog

Was Sie von Copilot erwarten können – und was nicht

Der Hype um Copilot for Microsoft 365 ist groß. Wie so oft in solchen Fällen, folgt bei vielen Usern schnell Ernüchterung. Daher ist ein realistisches Erwartungsmanagement wichtig. Wir zeigen Ihnen anhand von vier Mythen, was Copilot kann – und was nicht.

TIMETOACT GROUP
Service
Navigationsbild zu Data Science
Service

AI & Data Science

Die Datenmenge, die Unternehmen täglich produzieren und verarbeiten, wächst stetig an. Diese Daten enthalten wertvolle Informationen über Kunden, Märkte, Geschäftsprozesse und vieles mehr. Doch wie können Unternehmen diese Daten effektiv nutzen, um bessere Entscheidungen zu treffen, ihre Produkte und Dienstleistungen zu verbessern und neue Geschäftsmöglichkeiten zu erschließen?

TIMETOACT
Marc BastienMarc BastienBlog
Header Blogbeitrag Artificial Intelligence
Blog

Artificial Intelligence (AI) mit Spurhalteassistent im Griff

Die Transparenz und Nachvollziehbarkeit von AI ist die größte Herausforderung für die Nutzung von AI. Im Zusammenhang mit fairer Beurteilung von Menschen oder menschlichem Verhalten sowieso. Im Zusammenhang mit anderen Daten würden wir konsequenterweise in absehbarer Zeit komplett den Durchblick über Zusammenhänge in den Daten verlieren, wenn wir der AI allein das Feld überließen.

Blog
Blog

KI - Was Deutschland tun muss, um den Tech-Turbo zu zünden

Mit Philipp Klöckner haben wir uns auf der BE.INSIDE über die Zukunft von AI und deren Rolle in Europa unterhalten. Eine zentrale Erkenntnis: Microsoft verbraucht allein so viel Strom verbraucht wie drei abgeschaltete deutsche Kernkraftwerke!

Blog
Blog

AI for social good

Erfahre alle relevanten Kennzahlen zur Generativen KI und lerne von den führenden Unternehmen, wie sie bereits signifikante Zuwächse bei Jahresumsatz und ROI verzeichnen können dank Gen AI.

Referenz
Referenz

Galuba & Tofote: KI-basierte Marktanalyse-Lösung swarmsoft

Ein ARS Team aus den Bereichen Softwareentwicklung und Künstliche Intelligenz unterstützte die Galuba & Tofote Consulting PartG bei der Entwicklung der KI-basierten Marktanalyselösung swarmsoft®

Referenz
Referenz

Miyu – die zentrale Sprachintelligenz

Unterstützung des Customer Service-Centers durch KI-gestützte Automatisierungsprozesse.

TIMETOACT GROUP
Matthias BauerMatthias BauerBlog
Blog

Artificial Intelligence – No more experiments?!

Artificial Intelligence (AI) ist in aller Munde. Nach unserer Einschätzung – und damit deckungsgleich mit Prognosen von TechTarget, IDG und anderen Analysten – wird sich das auch im Jahr 2024 nicht ändern.

IPG
Claudio FuchsClaudio FuchsBlog
Teaser Expertenbericht KI und IAM
Blog

Braucht KI eine digitale Identität?

KI wird zunehmend autonom und übernimmt wichtige Aufgaben in Unternehmen. Wie bleibt die Kontrolle über sensible Daten gewährleistet? Wir beleuchten die Notwendigkeit einer digitalen Identität für KI.

Blog
Blog

Krisenbewältigung & Aufbau einer nachhaltigen Zukunft mit KI

Non-Profit-Organisationen entwickeln KI-Modelle, um globale Herausforderungen zu bewältigen - und ziehen daraus Lehren für Unternehmen weltweit

Blog
Blog

Google Workspace: KI-gestützte Arbeit für jedes Unternehmen

Zukunft der Arbeit mit Google Workspace und Google AI

TIMETOACT
Service
Service

Eventreihe: KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" beleuchten wir in unserer Eventserie.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement schafft Basis für Reporting

TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten und kann das Modell auch auf andere Fachabteilungen übertragen.

novaCapta
Event
Happy woman working with laptop
Event

Webinar: IT-Trends 2025 – Künstliche Intelligenz im Fokus

2025 geht es bei KI nicht mehr nur um die Tools und Technologien, sondern um das große „Wie“, auf das Unternehmen Antworten finden müssen. In knackigen 30 Minuten geben wir Ihnen Antworten auf folgende Fragen - für Ihren KI-Wissensvorsprung in 2025.

Blog
Blog

Der Leitfaden für Führungskräfte für generative KI

Du weißt nicht, wo Du mit generativer KI anfangen sollst? Starte Deine generative KI-Reise mit dem 10-Schritte-Plan !

novaCapta
Blog
Individual Engaged in Productive Work at Modern Cafe With Greenery on Table. Generative AI
Blog

Microsoft Ignite 2024: Das sind unsere Highlights

Auf der Ignite kündigt Microsoft wegweisende Neuerungen an. 2024 waren KI und Copilot wieder beherrschende Themen, doch gab es auch weitere spannende Ankündigungen. Wir haben die wichtigsten Updates inkl. Vorteile für Sie zusammengefasst!

TIMETOACT
Referenz
Referenz

TIMETOACT unterstützt KC Risk bei Benchmarking & Reporting

TIMETOACT unterstützte die KC Risk AG bei der Integration, Aufbereitung und Visualisierung ihrer Kundendaten. Alle Informationen stehen nun zentral zur Verfügung, sind per Knopfdruck abrufbar und Berechnungen erfolgen automatisiert.

TIMETOACT
Referenz
Referenz

Standardisiertes Datenmanagement bei TRUMPF

Die effiziente Verwaltung und zentrale, nachvollziehbare und qualitätsgesicherte Bereitstellung von Unternehmensdaten ist wichtiger denn je, um Entscheidungen zu treffen und die Datenverwendung zu optimieren – ganz besonders, wenn täglich bis zu 2 Terabyte an Daten bewegt werden. TIMETOACT implementiert für TRUMPF Photonic Components ein übergeordnetes Datenmodell in einem Data Warehouse und sorgt mit Talend für die notwendige Datenintegrationsanbindung und Katalogisierung. Mit diesem standardisierten Datenmanagement erhält TRUMPF künftig Reportings auf Basis verlässlicher Daten - mit der Option, Vorgehen und Modell zukünftig auch auf andere Fachabteilungen übertragen.

TIMETOACT
Referenz
Referenz

IAV erreicht ISO/IEC 5230 Zertifizierung

IAV hat ihr Open Source Compliance Programm nach ISO/IEC 5230 zertifizieren lassen und damit die Transparenz im Umgang mit Open Source Software, insbesondere im Software-Entwicklungsprozess erhöht. Durch die Zertifizierung nach ISO/IEC 5230 kann IAV in Zukunft potenzielle Risiken im Umgang mit Open-Source-Software verringern. Darüber hinaus wird durch die Zertifizierung das Vertrauen von Kunden und Partnern in die Lieferkette erheblich gestärkt. Begleitet wurde das Zertifizierungsverfahren von der TIMETOACT GROUP. Die Softwareberatung unterstützte bei der Reifegradanalyse, der Nachverfolgung von Befunden und bei der finalen Auditierung und Zertifizierung durch ARS – einem Unternehmen der TIMETOACT GROUP.

novaCapta
Blog
Hackathon der Business Unit Application & Data der novaCapta im Kölner Büro im September 2024: Gruppenfoto
Blog

Insights: Hackathon von „Applications & Data“

Ende September trafen sich Kolleg:innen aus unserer Business Unit „Applications & Data“ zu einem internen Hackathon im Kölner Büro. Zwei Tage mit intensiver Zusammenarbeit und jeder Menge neuer Erkenntnisse zu „Semantic Kernel“ standen auf dem Plan.

novaCapta
Blog
Close up of a business man working on a laptop, typing with his hands for work in office environment home office
Blog

Vorschau: IT-Trends 2024 - Teil 2

Von KI über IoT bis hin zu Intelligent Workplace: Welche Technologien und Herausforderungen warten 2024 auf Unternehmen? Wir haben gefragt, unsere Expert:innen haben geantwortet. Lesen Sie Teil 2 unserer IT-Trendvorschau!

TIMETOACT
Webinar
Webinar

Webinar: KI-Lösungen in Rekordzeit umsetzen und einsetzen

Erfahren Sie, wie Sie mit Mendix und AWS Bedrock nicht nur IT-Engpässe überwinden, sondern auch fortschrittliche KI-Anwendungen umsetzen. Anhand realer Beispiele, Best Practices und konkreter Handlungsempfehlungen geben wir Ihnen das nötige Know-how, um KI gewinnbringend in Ihre Prozesse zu integrieren.

Kompetenz
Kompetenz

KI - Eine Technologie revolutioniert unseren Alltag

Für ARS ist KI ein zunehmend natürlicher und organischer Teil des Software Engineering. Das gilt insbesondere in solchen Fällen, in denen es integraler Bestandteil von Applikationen und Funktionen ist.

Blog
Blog

The ROI of Gen AI

Erfahre alle relevanten Kennzahlen zur Generativen KI und lerne von den führenden Unternehmen, wie sie bereits signifikante Zuwächse bei Jahresumsatz und ROI verzeichnen können dank Gen AI.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

AWS Cloud: So optimieren Sie Ihre Kosten mit IBM Turbonomic!

Wir geben Ihnen einen Überblick über die verschiedenen Methoden des AWS-Cloud-Kostenmanagements.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Azure Cloud: Kosten mit IBM Turbonomic optimieren!

Im Blog erfahren Sie, wie Sie Ihre Microsoft Azure Kosten senken und dabei die bestmögliche Performance sichern. Und: wie IBM Turbonomic dabei unterstützen kann.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Amazon EC2: Performance richtig messen und optimieren!

Im Blog zeigen wir Ansätze zum Messen und Verwalten der Leistung von EC2-Instanzen. Zudem erfahren Sie, wie Sie mit IBM Turbonomic die Performance der darauf betriebenen Anwendungen optimieren.

TIMETOACT
Dominic LehrDominic LehrBlog
Blog

Elastic Block Storage: Performance und Kosten optimieren

Wir geben Ihnen einen Überblick zu EBS. Und: zeigen Ihnen, wie IBM Turbonomic Sie bei Performance und Kosten unterstützt.

TIMETOACT
Martin LangeMartin LangeBlog
Checkliste als Symbol für die verschiedenen To Dos im Bereich Lizenzmanagement
Blog

Lizenzmanagement fest im Griff - Das sollten Sie wissen!

Lizenzmanagement hat nicht nur Relevanz für das Thema Compliance, sondern kann auch Kosten und Risiken minimieren. Mehr dazu im Beitrag.

TIMETOACT
Blog
Blog

In 6 Schritten zur passenden Data Analytics-Lösung

Um Innovation im Unternehmen voranzutreiben, braucht es eine state-of-the-art Data Analytics-Lösung. Oftmals ist hier eine Modernisierung von Nöten. Erfahren Sie in sechs Schritten, wie Sie die für Sie passende Lösung finden!

novaCapta
Blog
Cropped shot of an african-american young woman using smart phone at home. Smiling african american woman using smartphone at home, messaging or browsing social networks while relaxing on couch
Blog

Best Practices für Copilot for Microsoft 365

Copilot for Microsoft 365 verspricht mehr Effizienz, Schnelligkeit und Produktivität im Arbeitsalltag. Doch hält Copilot, was es verspricht? Welche Dos & Don’ts sollte man beachten? Vier Kolleg:innen teilen ihre Erfahrungswerte und Best Practices!

novaCapta
Referenz
Launch (ESA)
Referenz

ESA: Data Factory, die Single Source of Truth

Mit der Data Factory hat die European Space Agency (ESA) eine Single Source of Truth geschaffen, die ihre Daten- & Projektlage transparent, ihre Prozesse effizienter macht und Entscheidungen nachhaltig fundiert.

novaCapta
Referenz
Luftbild Werk 2 von Hübner
Referenz

Die HÜBNER-Gruppe startet ihre KI-Reise

Die HÜBNER-Gruppe hat mit der Pilotphase von Microsoft 365 Copilot einen wichtigen Bestandteil ihrer umfassenden KI-Strategie erprobt. Dabei werden gezielt Potenziale für Unternehmen und Mitarbeitende ausgelotet, um Effizienzsteigerungen zu erzielen und interne Prozesse zu optimieren.

TIMETOACT
Marc BastienMarc BastienBlog
Blog

ESG-Tagebuch | Wissenstransfer & Kommunikation | Teil 2

In diesem Teil unseres ESG-Tagebuchs berichten wir wieder über die Implementierung der IBM Envizi ESG Suite bei einem Industriekunden. Lesen Sie diesmal, vor welchen aktuellen Herausforderungen, Frage- und Problemstellungen wir bei der Bestimmung und Dokumentation fachlicher Aspekte stehen.

IPG
Florian Di MaggioFlorian Di MaggioBlog
Teaserbild nDSG CH
Blog

Neues Datenschutzgesetz – Schutz vor Sanktionen dank IAM

Ab September 2023 gilt in der Schweiz das totalrevidierte Datenschutzgesetz (nDSG). Was bedeutet es für Unternehmen und wie kann ein effektives IAM Unternehmen unterstützen, das neue Gesetz einzuhalten? Mit diesem Expertenbericht erhalten Sie einen detaillierten Überblick.

TIMETOACT
Service
Service

KI Governance

Die EU hat sich auf schärfere Regeln zur Nutzung von Künstlicher Intelligenz geeinigt. Ihre Auswirkungen und weitere wichtige Aspekte von "KI Governance" erfahren Sie hier.

Service
Mit Google Workspace den digitalen Arbeitsplatz ermöglichen Sales Freshsales
Service

Gemini für Google Cloud: Effizienz und Innovation

Erlebt Gemini in Google Cloud und revolutioniert Eure Arbeitsweise. Entdeckt innovative Generative AI-Funktionen für höchste Effizienz.

News
News

X-INTEGRATE wird Mitglied im KI-Bundesverband

TIMETOACT GROUP-Tochtergesellschaft bereichert das Ökosystem für Künstliche Intelligenz KI mit Use Cases und Know-how zu Geschäftsprozessmanagement.

Kompetenz
Headerbild GenAI Consulting
Kompetenz

GenAI Consulting

Spätestens ChatGPT, Bard & Co. haben gezeigt: Generative AI hat das Potenzial, die Arbeitswelt zu revolutionieren. Mit GenAI Consulting unterstützen wir Sie dabei, dieses Potenzial für Ihr Unternehmen auszuschöpfen.

novaCapta
News
Cropped shot of an african-american young woman using smart phone at home. Smiling african american woman using smartphone at home, messaging or browsing social networks while relaxing on couch
News

Microsoft Copilot geht an den Start

KI verspricht Unternehmen deutliche Wettbewerbsvorteile. Mit Spannung wird deshalb der Start von Microsoft Copilot am 1. November 2023 erwartet. Doch wie schöpfen Unternehmen das volle Potential aus? Mit unserem Fast Start Angebot legen wir gemeinsam den Grundstein für eine optimale Nutzung.

novaCapta
Offering
Young man working on laptop, boy freelancer or student with computer in cafe at table looking in camera. Model by AI generative
Offering

Microsoft 365 Copilot Fast Start Angebot

Microsoft entwickelt die Optionen mit Künstlicher Intelligenz in rasanter Geschwindigkeit. Mit unserem Copilot Fast Start Angebot beraten wir Sie, wie Sie mit KI loslegen: im definierten Rahmen, mit ersten Usern und direkt am M365 Arbeitsplatz.

novaCapta
Blog
Social media marketing concept. Women hand using smartphone typing, chatting conversation in chat box icons pop up
Blog

Vorschau: IT-Trends 2024 - Teil 1

Technologien entwickeln sich in rasantem Tempo weiter. Deshalb haben wir bei unseren Expert:innen nachgefragt, welche Themen und Herausforderungen in diesem Jahr auf Unternehmen im Bereich IT warten. Lesen Sie jetzt Teil 1 unserer Trendreihe!

Sebastian VonhoffNews
News

Talend Open Studio Retirement

Nach der Ankündigung der Einstellung von Talend Open Studio, leiten wir Sie durch Ihre Migrationsmöglichkeiten. Erfahren Sie, wie Sie mit der kommerziellen Version von Talend oder anderen Plattformen wie IBM und Google erweiterte Datenintegrations- und Managementfunktionen nutzen können.

Kompetenz
Kompetenz

Mit Data Science & KI Informationen erkennen und nutzen

Nutzen Sie Data Science, um verborgene, wertvolle Erkenntnisse aus umfangreichen Datensätzen zu extrahieren und so zukünftig datenbasierte Entscheidungen zu treffen.

novaCapta
Offering
Cheerful diverse colleagues gathering on meeting in office
Offering

M365 Copilot​ Deployment & Adoption Accelerator​

Der optimale Weg für die Einführung: sich Hands-On, aber mit Guidance an die Startlinie wagen und so dafür sorgen, dass gekaufte Lizenzen schnell einsatzfähig sind und die Investition zu Ergebnissen führt. Unser Microsoft 365 Copilot​ Deployment & Adoption Accelerator​-Angebot für die Einführung unterstützt Sie genau dabei.

novaCapta
Leistung
Business woman talking on a phone call in a coworking office
Leistung

GPT in Kombination mit Microsoft Services

GPT-Modelle bergen für Unternehmen ein erhebliches Potenzial zur Optimierung von Abläufen. Wir beraten Sie, wie Sie (individuelle) GPT-Modelle in Ihrem Unternehmen nutzen können, um die Effizienz zu steigern, Kosten zu senken und innovative Lösungen für Ihre geschäftlichen Herausforderungen zu finden.

novaCapta
Leistung
Pretty designer in casualwear sitting on staircase with laptop on her knees
Leistung

KI-Agents: KI-gesteuerte Prozesse im Unternehmen nutzen

Wir sind darauf spezialisiert, maßgeschneiderte KI-Anwendungen zu entwickeln, die exakt auf die individuellen Anforderungen und Bedürfnisse Ihres Unternehmens zugeschnitten sind. Wir beraten Sie gerne zu möglichen Use Cases sowie zur Konzeption und Implementierung Ihres individuellen KI-Agents.

novaCapta
Leistung
Close up ux developer and ui designer use augmented reality brainstorming about mobile app interface wireframe design on desk at modern office.Creative digital development agency
Leistung

novaThink: Design Thinking mit Künstlicher Intelligenz

Entdecken Sie was mit KI alles möglich ist! novaThink, eine innovative Symbiose aus Design Thinking und KI, ist nur ein Beispiel für eine individuelle KI-Anwendung. Unsere Expert:innen sind darauf spezialisiert, maßgeschneiderte KI-Anwendungen zu entwickeln, die exakt auf die individuellen Anforderungen Ihres Unternehmens zugeschnitten sind. Wir beraten Sie gerne!

novaCapta
Workshop
Executive sharing proposal on laptop with colleagues
Workshop

Copilot Vision & Value Workshop​

Finden Sie mit unserem Workshop heraus, wie Microsoft 365 Copilot Ihren Mitarbeitenden einen Mehrwert bietet, wo noch Lücken für die Nutzung liegen und wie die Lizenzkosten sich auszahlen - ggf. sogar kostenfrei für Sie.

novaCapta
Offering
A woman uses a mobile phone to communicate while sitting in a coffee house.
Offering

Security für Microsoft 365 Copilot

Blinde Flecken in der Datensicherheit und Data Governance müssen für die Einführung von Copilot for Microsoft 365 identifiziert und behoben werden. So kann verhindert werden, dass Gehaltsdaten oder andere vertrauliche Daten unabsichtlich im Unternehmen geteilt werden. Unser Data Security Check, speziell abgesteckt auf den Einsatz von M365 Copilot, ist die Lösung.

novaCapta
Leistung
novaCapta: Ihr Partner für die digitale Transformation mit Microsoft Technologien
Leistung

Unternehmensprozesse mit KI & Data Science optimieren

Ob Microsoft Copilot, individuelle GPT-Modelle oder KI-Agents: Unser erfahrenes Team begleitet Sie von der ersten Analyse und Identifikation von möglichen Use Cases bis zur erfolgreichen und sicheren Implementierung Ihrer KI-Lösung und darüber hinaus.

novaCapta
Offering
novaCapta: Ihr Partner für die digitale Transformation mit Microsoft Technologien
Offering

Strategie für künstliche Intelligenz entwickeln

Mit praktischer Erfahrung in einem Proof of Concept zur KI-Strategie: Für Ihren Start mit künstlicher Intelligenz haben wir ein Standardvorgehen entwickelt, das sich individuell an Ihre Zielsetzung für den Einsatz von KI anpasst.