Schaut Euch das Video an. Löst das irgendwas aus? Bei mir nur Kopfschütteln. Es ist Zeit für ein bisschen Bullshit Detection.
Nächste Woche gibt es Apple Intelligence. Für US-Amerikaner und nur ein bisschen. Sozusagen die Vorstufe. Microsoft-Chef Satya Nadella hat gerade in London autonome Copilot-Agents angekündigt, die nächsten Monat zur Ignite erscheinen sollen, alles Preview. Seit einem halben Jahr habe ich einen Copilot+ PC, der mit seinem Snapdragon-Prozessor wunderbar lange mit einer Akkuladung läuft. Hat KI auf diesem Rechner meine Produktivität erhöht? Kein bisschen. Alles ist Beta, Preview, Windows Insider zuerst (und das bin ich), und dann startet der Rollout, abhängig von der Sprache, der Maschine und der Geografie.

Ruhe bewahren. Ich habe aktuell ein iPhone 14. Das wird nie Apple Intelligence bekommen, weil Apple zu sparsam mit dem RAM war. Aber auch wenn du ein iPhone 16 hast, wirst du trotzdem kein Apple Intelligence bekommen, weil Apple wegen des DMA noch ein bisschen Armdrücken mit der EU macht.
Wir sind im Warteraum. Und das ist OK, denn noch hat niemand bewiesen, dass KI tatsächlich die enormen Investitionen wieder einspielen kann. Das Video da oben schafft es auch nicht so richtig, oder?
Die Killerapplikation fehlt. Vielleicht gibt es nicht mal eine. Oder der Höhepunkte war »Meinten Sie…« und alles danach hätten wir uns sparen sollen.
Was sagt denn der Gartner Hype Cycle? Und ist es nicht so, daß wir kurzfristige Auswirkungen neuer Dinge immer überschätzen, während wir die Wirkung auf lange Sicht drastisch unterschätzen?
I found it very painful to watch. A lot of fluff, nothing specific (from my perspective), and boring on top of that, to say the least, plus all those clichés.
I’m with Marc Benioff: Microsoft is in full panic mode with its Copilot initiative. They burned a lot of ground by telling their customers a story that costs them a ton of money and hasn’t produced tangible results so far (Clippy comes to mind). Now everyone is betting on the next big AI thing: ‘AI agents.’ Promising for sure, but refining this idea/practice will also take time.
I am still a big believer in AI and its practical application. I also think that Europe is (already) screwed, because we (as in “the EU authorities”) do everything to make this continent and its industries irrelevant. We pride ourselves on data protection and tech-skepticism, but what will that buy us in the end? AI is a data-driven science, and if you don’t have the data (because you are not allowed to have it or cannot collect it in your jurisdiction), there won’t be much left. On top of that, a ton of cost-efficient energy is needed to power those modern data centers, and where do we stand on those topics in Europe?
It will be an interesting journey in the coming years, to say the least.
Ich nutze KI seit geraumer Zeit in der Software-Entwicklung – und mag es nicht mehr missen. Es ist (aus meiner Sicht) ein erheblicher Produktionsgewinn. Ich verwende primär ChatGPT sowie GitHub Copilot in VSCode. Ein paar Anwendungsbeispiele:
– Ich brauche eine Idee, wie ich ein bestimmtes Problem lösen könnte? Kurz erklären, worum es geht, die Antworten sind meist inspirierend. Nichts kann man einfach so übernehmen, aber es ergeben sich Ansätze, an die ich vielleicht noch nicht gedacht habe.
– Ein Stück Code funktioniert nicht und ich sehe die Ursache nicht direkt selbst? Einfach mal ChatGPT fragen, wo die Schwachstellen sind. Erstaunlich oft wird genau das Problem erkannt und eine Lösung vorgeschlagen.
– Ein Stück Code funktioniert, ist aber unschön? ChatGPT führt ein Refactoring durch, das meist sehr hilfreich ist.
– Beim Schreiben von Programmcode ist die Autovervollständigung mit GitHub Copilot so hilfreich, dass ich das nicht mehr missen möchte. Es ist oft schneller, den vorgeschlagenen Code anzupassen, als ihn selbst zu schreiben. Ja, es geht dabei nicht um das große Ganze, sondern um die Details (also die nächsten paar Zeilen).
Natürlich kommt es auch zu vielen Bullshit-Antworten, aber mit genügend Erfahrung auf einem Gebiet lässt sich das meist schnell erkennen. Das ist meiner Ansicht nach der entscheidende Punkt überhaupt: NIEMALS sollte man die KI fragen, wenn man die generierte Antwort nicht selbst beurteilen kann.
Ich fühle mich insofern keineswegs im Warteraum. Vieles wird sich noch verbessern lassen, aber sinnvoll nutzbar ist es schon jetzt.
As someone who also has super good results coding with AI, I now believe that programming is actually quite trivial, as problem solving – unlike many other areas of life – operates in a very determined environment. 🙂 Everything that the fellow programmer is about to solve in the moment has been done several times before by other programmers.
The best question they can come up with for a gardener to ask copilot is “what plants will bloom in two months?”
Seriously? I would have thought that’s basic knowledge for a professional gardener.
Apart from that, I’m getting more and more disappointed by the various assistants and AI functions:
Copilot for Finance in Excel is a joke so far, only works when the data is formatted as tables, doesn’t recognise the meaning off the headers, pulls out useless lines when asked for analysis.
When Google Assistant (now Gemini) mishears a location it gives me the weather for a random location that vaguely sounds like it somewhere in the US instead of asking which location in the UK I could mean. When I ask something about Port Charlotte it gives me answers for the one in Florida instead of Scotland, even though it knows I regularly visit the one on Scotland. When I tell it “play my playlist [name]” it often plays some random playlist with a name vaguely like my playlist I asked for. Surely asking for “my playlist [name]” should be enough of a clue, even if it didn’t fully understand the name?
And I could go on. And on. And on.