beta.pill beta.stripText beta.stripCta
Die Geschichte hinter Shoulder

Warum Shoulder existiert

Gleicher Gründer. Gleiches Muster. Anderes Problem.

Shoulder zeigt dir, was jede Codeänderung tatsächlich mit deinem System gemacht hat. Strukturelle Impactanalyse für moderne Codebases. Erstellt vom Team hinter Katacoda, der interaktiven Lernplattform, die von O'Reilly Media übernommen wurde.

Wo alles begann

Vor Shoulder haben wir Katacoda gebaut. Eine Plattform, die Entwicklern ermöglichte, durch Tun zu lernen. Statt Dokumentation zu lesen oder Videos zu schauen, öffnetest du ein Terminal im Browser und übtest mit echten Tools. Keine Einrichtung. Keine Reibung. Nur das, wofür du gekommen bist.

Katacoda wurde zum Standard für praktisches technisches Lernen. Red Hat, HashiCorp, Datadog und das Kubernetes-Projekt haben es als primäre interaktive Lernumgebung übernommen. Die CNCF präsentierte es auf ihrer Homepage. Globale Beratungsfirmen nutzten es, um Ingenieurteams im großen Maßstab zu schulen.

O'Reilly Media übernahm Katacoda 2019 und brachte interaktive Szenarien zu ihren 2,5 Millionen Nutzern. Es funktionierte aus einem einfachen Grund: Wir haben nicht mehr Inhalte hinzugefügt. Wir haben die Reibung beim Tun beseitigt.

Katacoda: Interaktive Lernumgebungen

Katacoda war Pionier für browserbasierte Sandbox-Umgebungen zum Erlernen von Infrastruktur-Tools. Kubernetes, Docker, Terraform und mehr. Keine lokale Einrichtung erforderlich. Entwickler konnten in Sekunden von der Absicht zur Aktion wechseln.

Red Hat HashiCorp Datadog Kubernetes / CNCF O'Reilly Media

Von O'Reilly Media übernommen (2019). Brachte interaktives Lernen zu 2,5 Millionen Nutzern.

Das Muster, das wir immer wieder sehen

Was Katacoda uns gelehrt hat: Entwickler-Tools sind erfolgreich, wenn sie genau am Moment der Entscheidung stehen. Und die Unsicherheit drumherum reduzieren.

1 Den Moment finden, in dem Entwickler zögern
2 Die Unsicherheit beseitigen
3 Teil des Workflows werden

Katacoda beseitigte die Lücke zwischen lernen wollen und tatsächlich lernen. Shoulder beseitigt die Lücke zwischen Code schreiben und sehen, was er tatsächlich mit deinem System gemacht hat.

KI schreibt mehr Code. Vertrauen ändert sich schneller als Menschen sehen können.

KI refaktoriert hunderte Dateien in Sekunden. Mehr Code wird deployed, schneller, aber das menschliche Verständnis pro Änderung sinkt. Reviewer sehen Diffs. Sie sehen keine Konsequenzen. Ist die Authentifizierung verschwunden? Ist ein öffentlicher Endpoint aufgetaucht? Haben nicht vertrauenswürdige Daten die Datenbank erreicht?

Der Engpass ist nicht mehr das Schreiben von Code. Es ist zu sehen, was jede Änderung tatsächlich mit deinem System gemacht hat.

Du überprüfst nicht den Output der KI.

Du verifizierst, was sie tatsächlich gemacht hat.

Im Moment fehlt diese Sichtbarkeit. Entwickler wählen zwischen schnell vorangehen und hoffen, oder langsamer werden und im Rauschen von Tools ertrinken, die für Erkennung optimieren. Mehr Warnungen, mehr Funde, mehr Dashboards. Aber Erkennung ist nicht der Ort, an dem der Wert liegt.

Der eigentliche Kontrollpunkt ist der Moment, in dem Codeänderungen landen. Dort wird Risiko zu Produktion, Abhängigkeiten werden zur Angriffsfläche und KI-generierter Code wird vertrauenswürdig. Dieser Moment braucht strukturelle Analyse, nicht mehr Warnungen.

Was du siehst

Shoulder gibt dir strukturelle Impactanalyse. In der KI-Coding-Schleife, in deiner Pipeline oder auf jedem Repo. Wenn sich Code ändert, baut Shoulder den Systemgraphen neu auf und berechnet das Vertrauensdelta.

Strukturelle Analyse

Sieh, wann eine private Route öffentlich wird. Wisse, wann die Auth-Abdeckung sinkt. Verfolge nicht vertrauenswürdige Eingaben zu Datenbanken, Shells und Eval. Keine Diffs auf Zeilenebene. Konsequenzen auf Systemebene.

Ökosystem-Intelligenz

Überprüfe jedes Paket gegen Maintainer-Historie, Download-Anomalien, Install-Skripte und bekannte Malware-Signale. Abhängigkeitsvertrauen, das über einen CVSS-Score hinausgeht.

Deterministische Verifikation

Dein Code bleibt lokal. Gleiches Ergebnis bei jedem Lauf. Funktioniert mit jedem Modell oder menschlichen Autor. Ergebnisse kommen während der Code geschrieben wird, nicht nach dem Review.

Du brauchst nicht mehr Warnungen. Du musst sehen, was jede Änderung tatsächlich bewirkt hat.

Was als Nächstes kommt

Wir expandieren in CI/CD-Durchsetzung, Laufzeit-Vertrauenssignale und tiefere Ökosystem-Abdeckung. Das Ziel ist dasselbe wie bei Katacoda: am Moment stehen, der zählt, und das Richtige einfach machen.

Wenn du Shoulder evaluierst oder darüber nachdenkst, wie Vertrauen in deiner Codebase funktioniert, würden wir gerne von dir hören.