Warum dieser Blog - Die Informatik in der Krise
Damals in den 1990ern
Das erste mal, dass ich etwas an einem Computer gemacht habe war bei meinem Onkel irgendwann zu beginn der 1990er Jahre. Er hatte Informatik an der TFH-Berlin studiert und hatte mir bei einem Familienbesuch ein Malprogramm geöffnet, wo ich mit ihm zusamnen ein Haus gemalt und anschließend auf dem Nadeldrucker ausgedruckt habe. Kurze Zeit später kaufte auch mein Vater einen Computer für unsere Familie, ein 386er mit 1 MB RAM und einer 30 MB Festplatte, gekauft bei Vobis, einer damals großen Kette die Computer verkauft hat. Ich benutzte den Computer vor allem zum Spielen und um Texte zu schreiben. Im Jahr 1994 bekam ich endlich meinen eigenen Computer, einen 486er mit 33 MHz, 8 MB RAM und einer 120 MB Festplatte. Zu dieser Zeit war das gängige Betriebssystem noch DOS 6.22 mit Windows 3.11, Windows 95 als “moderne” Alternative war noch nicht verfügbar. Darum legte Vobis damals vielen Rechnern OS/2 als Betriebssystem bei, was man bei Bedarf installieren konnte.
Ohnehin war die Welt der Computer zum damaligen Zeitpunkt enorm vielfältig und divers. Ich hatte einen PC, auf dem manchmal DOS mit Windows lief, manchmal OS/2, die Tochter der Nachbarn hatte eine C64 und Klassenkameraden hatten einen Amiga. Und wenn man dann den ganzen Tag mit Spielen am Computer verbringt, dann denkt man sich “Computerspiele machen, das will ich auch können”. Meine Eltern kauften mir Visual C++ und ich machte meinen ersten Gehversuche in der Programmierung. “Richtig” programmieren lernte ich erst später in der Schule in Turbo Pascal. Zwischenzeitlich war der 486er einem neuen Computer mit AMD Prozessor gewichen (der entweder 200 oder 233 MHz hatte) und auf dem ich je nach Laune OS/2 Warp 4 oder Debian Linux laufen hatte. Ohnehin war dieser Computer, den ich 1998 bekommen hatte, ein wirklich schönes Gerät. Wir gingen damals um ihn zu bauen in drei verschiedene Läden in Berlin gefahren um alle Teile zu bekommen und es war damit der wohl individuellste Computer den ich bisher hatte.
Auf dieserm Gerät sammelte ich meine ersten Erfahrungen Online, sowohl im Internet, als auch in damals noch existenten aber zunehmend aussterbenden Mailboxen. Mailboxen waren damals andere Systeme, zu denen man sich über Telefon vebunden hat und wo Benutzer sich gegenseitig Nachrichten schicken konnten und in “Brettern” diskutieren konnten. In der Nacht riefen sich dann die Mailboxen gegenseitig an und synchronisierten die Inhalte, so dass sich Nachrichten innerhalb des Netzwerks aus Mailboxen verbreiteten. Obwohl eigentlich schon aus der Zeit gefallen, betrieb ich in den Jahren 1998 und 1999 noch kurz meine eigene kleine Mailbox, wo aber ich und einige meiner Freunde die einzigen Nutzer blieben. Aber obwohl die Mailbox am Ende zu spät kam, war es doch ein ganz bestimmtes Gefühl selbst einen Dienst zu betrieben, der für die große weite Welt verfügbar ist.
Damals begann dann das Internet das dominierende Netz zu werden, denn bei den Mailboxen konnte es Tage dauern bis eine Nachricht an einen anderen Nutzer oder in einem Brett erreicht hat. Im Internet bekam man alles und zwar sofort. Ich lernte innerhalb von kurzer Zeit neue Leute im Internet kennen, mit denen ich auch Jahre lang Kontakt hatte. Sogar eine Brieffreundin in Malaysia hatte ich im Internet gefunden. (Wobei es rückblickend interessant ist, dass wir uns im IRC kennenlernten und dann Briefe anstelle von E-Mail geschrieben haben). Im Internet gab es viele Orte zu entdecken. Die Bezeichnung “Internet” habe ich hier bewusst gewählt, denn damals war die Dominaz des WWW noch nicht so stark und man nutzte auch Dienste wie z. B. IRC oder das Usenet. Man besuchte eine große Zahl von Diensten und Seiten. Das Internet war damals auch noch unterhalb des Radars von Staat und Juristen, weshalb hier ein enorm kreativer und innovativer Freiraum entstand.
Der moderne Computer-Einheitsbrei
Vergleiche ich die Vielzahl von verschiedenen Computern und Betriebssystemen in den 1990er Jahren zu dem was wir im heute in den 2020ern haben, hat sich aus der großen Vielfalt ein Einheitsbreit entwickelt. Mit x86/amd64 auf der einen und ARM auf der anderen Seite haben wir im wesentlichen zwei Instruction Set Architectures die übrig geblieben sind und den Markt unter sich aufteilen. Systeme mit POWER9 Prozessoren bleiben Exoten und bei RISC-V gibt es bisher keine performanten Prozessoren, die mit anderen Architekturen mithalten können. Architekturen wie MIPS, SPARC oder Alpha spielen eigentlich keine Rolle mehr. Ein Großteil der Hersteller normaler Noteboks versuchen den Stil zu immitieren, den Apple im Markt vorgibt, Ausnahmen sind Lenovo mit der ThinkPad-Serie (die sich auch vom ursprünglich Design immer weiter entfernt) und diverse Gaming-Notebook Serien wie Dell mit Alienware oder Asus ROG.
Auch das Aussehen der Betriebssysteme wird immer ähnlicher und gleicht sich ebenfalls immer mehr dem an, wie macOS aussieht. Dieser Trend macht mit Gnome3 auch vor der Linux-Welt nicht halt. Die Bedienung von Smartphones und Tablets gleicht sich im wesentlichen, radikale andere Entwürfe wie einst die Windows Mobile Phones gibt es inzwischen nicht mehr.
Während in den 1990er Jahren die Hardware eines Computers und die Zusammenstellung der Software noch etwas sehr individuelles war, gleicht heute ein Computer dem anderen, sowohl im Aussehen der Hardware, als auch beim Look and Feel der Software.
Zentralisierung des Internets
Weniger Diversität gibt es auch bei der Anzahl der Seiten und Services die ein normaler Benutzer im Internet so verwendet. Soziales Netz? Facebook. Kurze Nachrichten in die Welt bringen? Twitter! Bilder in die Welt bringen? Instagram! Lange Videos schauen? YouTube! Kurze Videos schauen? TikTok! Während man früher auf einer Vielzahl von Seiten und in verschiedenen Communities unterwegs war, konzentriert sich heute fast alles auf wenige große Anbieter. Und diese Konzentration findet nicht auf bei den Diensten sondern auch bei der technischen Infrastruktur des Internets statt.
Mein erster Internetprovider war Metronet, wo man damals für 9,99DM pro Monat zum Ortstarif (der wiederum teuer war) ins Internet konnte. Ein anderer Internet-Provider in Berlin war damals Snafu. Große Anbieter wie die Deutsche Telekom, AOL oder CompuServer gab es auch, aber neben diesen gab es halt einen Markt kleiner Anbieter. Heute hat sich der Markt im wesentlich auf ein par große Betreiber konzentriert. Und auch auf der Seite des Hostings sieht es nicht besser aus. Was früher von vielen kleinen Hosting-Providern bereit gestellt wurde hat sich heute (mit breiterem Spektrum) auf wenige große Cloud-Anbieter konzentriert. Für den Schutz vor DoS-Attacken gibt es einige wenige Anbieter und Inhalte werden durch einige wenige CDNs an den Mann gebracht.
Wir haben sowohl bei unserer Nutzung als auch in der Infrastruktur aus einer wunderbaren dezentralen Technologie etwas gemacht, was stark zentralisiert ist und sich auf wenige Player konzentriert. Das führt dann zum Beispiel effekten, dass wenn bei AWS ein Rechenzentrum ausfällt, Staubersauger mit einmal nicht mehr funktionieren oder das bei einem Ausfall bei Facebook gleich WhatsApp und Instragram nicht mehr funktionieren.
Zensur
Die Zentralisierung führt noch zu einem weiteren Problem: Zensur. Die libertären Tage, wo Platformen wie YouTube ein Spielplatz des Verrückten und Absurden waren, sind vorbei. Wer heute zu sehr mit dem was er macht zu sehr Empörung auslöst fliegt schnell von den Platformen. Oder auch wer Content hat, den er vor Jahren veröffentlicht hat und der nun nicht mehr neuen Regeln entspricht verliert schnell seinen Kanal oder seine Seite. Häufig können oder wollen die Anbieter selbst nicht erklären wogegen man genau verstoßen hat. Man bekommt lediglich eine Standardmail mit einer Liste, nach dem Motto “Schau mal hier, das sind alle Regeln, Du wirst ja selbst am besten wissen wogegen du verstoßen hast”.
Dieser Trend wird in Zukunft nicht davor halt machen, dass auch Druck auf Anbieter von DoS-Schutz oder Hosting-Anbieter ausgeübt wird bestimmte Seiten und Dienste nicht mehr zu hosten.
Und auch tief in die Infrastruktur wird zensierend eingegriffen. So haben sich in Deutschland unter dem Namen CUII mehrere private Internetprovider und mehrere Urheberrechtsinhaber zusammengeschlossen und sperren auf DNS-Ebene den Zugang zu “struktuell urheberrechtsverletztenden Seiten”.
Was einst zusammen führte trennt uns heute
Dabei waren die Anfänge der sozialen Netzwerke positiv, schön und euphorisch.
Der Anfang von StudiVZ, es war gut
Im Jahr 2005 ging in Deutschland StudiVZ-Online, was ein deutschen Pendant zu Facebook war, bevor Facebook im deutschen Markt aktiv wurde. Was StudiVZ (und später Facebook) von anderen Seiten dieser Zeit unterschied, war das zunächst alle unter Klarnamen aktiv waren. Hierdurch fand man vor allem Kontakt zu vielen Leuten aus der Grund- und Oberschule und konnte nach vielen Jahren wieder Klassentreffen organisieren.
Als ich wenige Jahre später auf Facebook kam, teilten sie Leute dort auch tatsächlich noch private Informationen, wie Bilder von der letzten Party, vom Urlaub und was sie sonst so machten. Man konnte so einfach ein bisschen am Leben von Bekannten teilhaben und entdeckte gemeinsame Interessen die sonst wohl verborgen geblieben wären.
Krawall, Krawall, Krawall
Im Jahr 2018 deaktivierte ich dann meinen Facebook Account. Ich stellte fest, dass aus der Seite wo ich mir Jahre zuvor angemeldet hatte und wo ich in der Timeline Dinge und Gedanken von Leuten gesehen habe die ich kenne, eine Seite geworden ist, wo ich in der Timeline nur noch politisch radikalen Zeug und Streit zu lesen bekommen habe. Eine Zeit lang habe ich noch versucht Facebook als so eine Art RSS-Reader zu verwenden, aber auch hier wurden einem dann nicht die Nachrichten gezeigt die einen inhaltlich interessieren, sondern wo es bei den Kommentaren besonder abging.
Inzwischen ist jedem klar, dass die Empfehlungsalgorithmen in sozialen Netzwerken die Nutzer gezielt zu kontroversen Inhalten lenken um die Empörung zu fördern und die Nutzer so länger auf der Seite zu halten. Mir werden als Nutzer somit nicht mehr die Inhalte mit der höchsten Qualität gezeigt, sondern die die am meisten polarisieren und die stärken Emotionen hervorrufen.
Negative Auswirkungen auf die Gesellschaft
Vorfälle wie Pizzagate sind hier nur der traurige Höhepunkt. Dokumentationsfilme wie Social Dilemma zeigen die negativen Auswirkungen auf die Gesellschaft, wie sich Menschen radikalisieren und wie desaströs sind diese Netze auf junge Menschen auswirken. So berichtete die Whistleblowrin Frances Haugen darüber, dass es Facebook bekannt war, dass sich Instagram negativ auf die Psyche von Teenagern auswirkt.
Denn die Zeit wo Leute wirklich Bilder aus ihrem normalen Leben auf solchen Platformen posteten ist weitestgehend vorbei. Auch Influencer übertragen nicht mehr aus einem realen Kinder- oder Wohnzimmer. Der Contant soll nur diesen Eindruck erzeugen, was handelt sich jedoch um professionel produzierte Videos und Bilder die vor einer Kulisse aufgenommen werden wo kein Gegenstand aus Zufall steht.
Hier fallen jedoch Anspruch und Realität nicht zusammen. Gerade jungen Menschen wird hier aber ein Idealbild vorgegaukelt was nicht zu erreichen ist.
Du bist das Produkt
Darüber hinaus haben sich die Seiten die wir besuchen und die Geräte die wir verwenden zu einem Albtraum für unsere Privatspähre entwickelt. Wir liefern bereitswillig selbst intimste Daten an diverse Seiten. Diese Seiten bieten wiederum als Produkt Tracking an, wo andere Seiten entsprechende Scripte bei sich einbinden und weitere Daten über einen selbst gesammelt werden. Das Ergebnis ist eine umfangreiche Sammlung von Daten über die meisten Nutzer des Internets. Und genau um diese intimen Daten geht es.
Man ist als Nutzer von Youtube, Facebook oder Twitter nämlich nicht der Kunde, denn man bezahlt ja nichts für die Dienste. Man ist als Nutzer das Produkt denn das Profil was man den Anbietern frei Haus liefert, wird genutzt um einen Werbung zeigt, die hoffentlich dazu führt das man die entsprechenden Produkte kauft.
Der Spion in deiner Hosentasche
Das Tracking findet hierbei nicht nur im Web statt, sondern auch auf unseren Smartphones. Wer sich zum Beispiel Andoird Smartphone mit Google Account eingerichtet hat und hierbei nicht die Daten die gesammelt werden beschränkt kann sich später in seinem Google-Account einen sehr umfassenden Verlauf ansehen, wann er welche Seiten besucht hat, welches Video geschaut hat, wonach er gesucht hat und wann er wo war.
Darüber hinaus wird auch gespeichert wann welche App gestartet wurde und wann welcher Kartenausschnitt in Google Maps angesehen wurde. Die Daten werden von einem Gerät gesammelt was mein Eigentum ist, wofür ich bezahlt habe. Das Äquivalent hierzu wäre, dass irgendwer oder irgendwas eine detaillierte Aufzeichnung darüber führt, was ich in meiner Wohnung mache, welche Bücher oder Zeitschriften ich mir ansehe und wonach ich darin suche.
Eine Stufe weiter ging Apple mit dem Plan Dateien, bevor sie in die iCloud hochgeladen werden, nach illegalen Inhalten zu scannen. Eine Technologie, die wenn erst einmal implementiert sich beliebig ausweiten lässt. Apple kündigte dieses “Feature” inzwischen wieder ab. Es war dennoch enttäuschen, dass dies von Apple kam, einer Firma die im Gegensatz zu ihren Wettbewerbern im Bezug auf Datenschutz vieles richtig gemacht hat.
Dienste von zuhause aus laufen lassen
Dabei waren wir hier mal bedeutend weiter. Zu Zeiten alter Mailboxen betrieben Enthausiaten diese von zuhause aus. Als in den 2000ern Flatrate-Tarife verfügbar waren, betrieben Leute zuhause private FTP-Server um Dateien mit Freunden und Bekannten zu teilen. Micrsosoft bot damals den Windows Home Server hat, ein Server-Betriebssystem für den privaten Bereich.
Anstatt also seine Daten auf den Computer anderer Leute abzulegen, legten die die Menschen ihre Daten auf ihre eigenen Geräte ab. Geräte auf die nur sie selbst Zugriff hatten und wo niemand sich anschaute was die Menschen speichern. Die Computer wurden auch von den Leuten selbst installiert und gewartet.
Digitale Autarkie
Heute haben Menschen ihre Daten nicht mehr auf ihrem eigenen Computer, viele wären nicht einmal mehr fähig ohne Internet die Software wieder auf ihren Computer zu installieren. Früher verfügte man über die Installationsmedien für sämtliche Software von Betriebssystem über Anwendungssoftware bis hin zu Spielen. Heute installiert sich das Betriebssystem über einen Installer, der Software aus dem Internet nachlädt, ebenso wie Anwendungen und Spiele. Dies führt zu einer bedenklichen Abhängigkeit, dass eine Vielzahl unterschiedlicher Server im Internet dauerhaft verfügbar sind.
Dieses Problem betrifft nicht nur kommerzielle closed-source Anwendungen sondern auch freie Software und Open Source. Früher kaufte man sich einen Satz von CDs im Laden oder lud sich die Images für die CDs runter und hatte alles notwendige für eine Neuinstallation vor Ort. Paketmanager, die die Pakete aus dem Netz laden sind zwar praktisch, führen aber auch zu einer Abhängigkeit zu anderen Leuten.
Informatiker - Das neue Arbeiterproletariat
Derzeit wird die Informatik als boomende Branche wahrgenommen. Dies ist jedoch nur auf den ersten Blick so. Schaut man tiefer erkennt man, dass es sich bei Informatikern im 2020er Jahre um das neue Arbeiterproletariat handelt, billige Arbeitskräfte mit schlechter Ausbildung, die schnell ersetzt werden, sobald sie ein bisschen Erfahrung erlangt haben und damit teurer werden.
Keine solide Ausbildung mehr
In den Hochschulen findet in der Regel keine solide Ausbildung in der Informatik mehr statt. Das beginnt bereits dabei, dass viele Studenten mit Bachelor- oder Master-Abschluss den Computer den sie verwenden nicht richtig verstehen. Regelmäßig sind Leute mit einem Bachelor-Abschluss nicht fähig selbst einfachste Tätigkeiten in einem Terminal zu erledigen, was dazu führt, dass wenn ihre IDE oder ihr grafischer Git-Client nicht richtig funktionieren, sie nicht mehr weiter kommen. Die mangelnde Kenntniss über die Arbeitsweise des Computers und Dingen wir RAM und Cache sorgen dafür, dass viele schlicht nicht fähig sind schnelle Software zu schreiben. Auch die Programmiersprachen werden von vielen nicht in der Tiefe oder gar vollständig verstanden.
Java als Ausbildungssprache zu verwenden war vielleicht einer der größten Fehler in der Geschichte der Informatik. In Projekten mit anderen Programmiersprachen wie zum Beispiel Swift habe ich es erlebt, dass sogar Absolventen mit Master-Anschluss Swift nur so weit lernen, dass sie quasi Java in Swift schreiben können.
Ich erlebe es immer wieder, dass viele ausschließlich in Frameworks denken und wie sie diese zusammenstecken, ohne tiefere Kenntnisse über das Framework selbst zu haben. Diese finden dann bei der Entwicklung schnell ihre Grenzen, wenn sie etwas machen müssen, was über die Funktionalität des Frameworks hinaus geht.
Generalisten
Programmiersprachen, Frameworks und Libraries sind aber zum einen nur Mittel zum Zweck und zum anderen nur konkrete Ausprägung bestimmter abstrakter Ideen. Sie sind Mittel zum Zweck im Sinne des Lösens von Problemen anderer Fachbereiche, die sind Ausprägung abstrakter Ideen von, das eine Vielzahl von Programmiersprachen beispielweise Ideen der funktionalen Programmierung oder der objektorientierten Programmierung implementieren, ebenso wie Frameworks oder Libraries bestimmte abstrakte Pattern und Problemlösungsstrategien darstellen. Je mehr man diese abstrakten Ideen verstanden und verinnerlicht hat, um so mehr wird man zu einem Generalisten, der dann eben kein Java-Developer, React-Developer oder node JS Developer ist, sondern eine Software-Entwickler, der fähig ist, sich innerhalb von 4 - 8 Wochen in jede Progammiersprache, jedes Framework oder jede Bibliothek einzuarbeiten.
Gerade diese Generalisten sind es, die auf einer abstrakten Ebene darüber nachdenken können, was sie da eigentlich den ganzen Tag lang machen und aus der Erkenntnis daraus wiederum ihren Alltag weiter optimieren. Denn genau dies ist es, was eine Firma zu einer erfolgreichen Tech-Firma macht, dass aus der Lösung eines konkreten Problems abstrakte Erkenntnisse gewonnen werden, die wiederum in Technologie gegossen werden, die allgemeine Probleme lösen. In Paradebeispiel hierfür ist (trotz aller notwendigen Kritik) die Firma Amazon. Gestartet ist Amazon als Online-Buchladen. Später wurde das Sortiment immer mehr erweitert. Irgendwann erreichte Amazon eine Größe, wo man mit bis dahin konventioneller IT-Infrastruktur nicht mehr weiter kam. Man musste die Grenzen der Skalierbarkeit weiter ausdehnen. Die Erkenntnisse hiefür wurden wiederum in Technologie gegossen, die von Amazon in Form von AWS wiederum allen zu Verfügung steht.
Dieser Schritt ist aber nur möglich, wenn man Generalisten hat, die aus dem direkten Ziel noch höhere Ziele ableiten können.
“Ich bringe dir dein Essen nachhause”
Viele Informatiker fristen jedoch eine trostlose Existenz in mekrwürdigen Start-Ups, die sich gefühlt zum größten Teil damit beschäftigen Menschen Essen nachhause zu bringen. Dies ist jedoch kein Umfeld in dem wiederum aus einem konkreten Problem abstrakte Erkenntnisse abgeleitet werden. Denn der Informatiker hat hier keine Chance irgendwie abstrakter zu arbeiten. Denn was dort gebraucht wird, ist eine billige Arbeitskraft, am besten mit einem frischen Bachelor-Abschluss. Wenn der Informatiker dann ein par Jahre gearbeitet hat, entwickelt er sich nicht weiter, er wird durch den nächsten Bachelor-Absolventen ersetzt.
Umgebungen mich hoch ausgebildeten Generalisten, die den Freiraum haben sich in der Tiefe sowohl mit dem zu lösenden Problem als auch mit dem technischen Problem zu befassen und denen der Freiraum gegeben wird hier Abstraktes von abzuleiten sind selten.
Open Source = FOSS ohne Seele
Auch im Bereich der Software sieht es schlecht aus. In den 1990er stand der geschlossenen und properitären Welt von Microsoft die Welt der freien Software gegenüber, bestehend vor allem aus Projekten wie Linux, GNU oder BSD. Entweder hatte ich also geschlossenes System, entwickelt von einer Firma mit dem Ziel Geld zu verdienen (was nicht verwerflich ist) und wo ich den Quelltext nicht sehen konnte. Oder ich hatte ein System, was offen war, was von Enthausiasten entwickelt wurde und wo ich den Quelltext nicht zu sehen konnte, sondern wo auch die Mitarbeit dankend angenommen wurde. Zweiteres war zu diesem Zeitpunkt FOSS, also Free and Open Source Software. Zwei schöne Beispiele für diese FOSS-Spirit sind zum einen das BSD-Projekt, wo sich schlicht technisch versierte Enthusisten ein eigenen Betriebssystem schreiben und Suckless, wo eine Gruppe von Power-Usern darüber nachdenkt wie man effizient einen Computer in radikal einfachen und minimalistischen Tools bedienen kann.
Zwischen den beiden ist etwas anderes entstanden: Open Source. Hier sind es nicht mehr Enthausiasten, die für sich selbst Software schreiben die in Problem löst, sondern es sind Firmen, die den Quelltext von kommerziellen Projekten Online stellen. Hiermit ist es keine Gemeinschaft mehr, die dieses Projekt voran treibt, sondern eine Firma mit kommerziellen Interessen hat sozusagen den Daumen darauf, was ins Projekt kommt und was nicht. Das entscheidene Merkmal ist dann auch nicht mehr ob etwas generell dem Projekt hilft, sondern ob es der jeweiligen Firma hilft. So gibt es dann zum Beispiel neben der Open Source Variante noch eine kommerzielle Variante, die dann fehlende aber wichtige Features gegen Bezahlung hinzufügt. Man könnte also dreist behaupten: Der Commiter der an solchen Projekten teilnimmt ist nicht mehr als eine kostenlose Arbeitskraft für die jeweilige Firma.
Diesen Open Source Projekten fehlt also ein ganz wesentliches Element der FOSS-Community: Die Freiheit. Man muss also beim Einsatz solcher Software immer überlegen, ob man nicht gerade auf dem Weg in einen Vendor Lock-In ist, wo man früher oder später seine Prozesse so stark an diese Software bindet um man am Ende nicht mehr ohne die kommerzielle Variante auskommt. Geld mit Software zu verdienen ist nicht verwerflich, allerdings ist diese Open Source Welt hier etwa auf dem moralischen Niveau von Free-to-Play-Spielen.
Warum diese Polemik?
Ist dieser Auftakt hier polemisch? Ja. Ist dieser Text hier einseitig? In jedem Fall!
Aber es zeigt sich immer deutlicher, dass die Informatik und die von ihr erschaffene Technologie immer weiter von dem Versprechen am Ende des 20. Jahrhunderts entfernt hat. Und manchmal braucht es Polemik um den Menschen ein Problem vor Augen zu führen. Dieser Blog soll einen Weg raus aus dem Problem skizzieren. Es sollen Artikel, Informationen und Tutorials geschrieben werden, die es am Ende jeden erlauben selbstbestimmt mit der Technik umzugehen und Technik zu verwenden, die einen nicht hintergeht.