Wie eine Katastrophe des Zweiten Weltkriegs – und eine Vertuschung – zu einem Durchbruch bei der Krebsbehandlung führte

Wie eine Katastrophe des Zweiten Weltkriegs – und eine Vertuschung – zu einem Durchbruch bei der Krebsbehandlung führte


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

In der Nacht zum 2. Dezember 1943 bombardierten die Deutschen einen wichtigen Hafen der Alliierten in Bari, Italien, versenkten 17 Schiffe und töteten mehr als 1.000 amerikanische und britische Soldaten sowie Hunderte von Zivilisten. Gefangen in dem überraschenden Luftangriff des Zweiten Weltkriegs war der John Harvey, ein amerikanisches Liberty-Schiff mit einer geheimen Ladung von 2.000 Senfbomben, die als Vergeltung eingesetzt werden sollten, falls Hitler zum Gaskrieg greifen sollte.

Der Glückstreffer der Luftwaffe, der eine giftige Wolke aus Schwefelsenfdämpfen über dem Hafen freisetzte – und flüssiger Senf ins Wasser – führte zu einer alliierten Vertuschung der Chemiewaffenkatastrophe. Aber es führte auch zu der zufälligen Entdeckung eines neuen Krebsmedikaments durch einen Armeearzt.

Eisenhower und Churchill koordinierten eine sofortige Vertuschung, um die Behandlung der Opfer zu vereiteln

In den verheerenden Folgen des Angriffs, den die Presse als „kleines Pearl Harbor“ bezeichnete, versuchten der US-General Dwight D. Eisenhower und der britische Premierminister Winston Churchill, die Wahrheit über die Giftgaslieferung zu verbergen, aus Angst, Deutschland könnte es als eine Ausrede, um einen totalen Chemiekrieg zu beginnen. Aufgrund des Militärgeheimnisses wurde das medizinische Personal nicht auf die Gefahr einer Kontamination durch den flüssigen Senf aufmerksam gemacht, der sich heimtückisch über den Hafen ausbreitete und sich mit den Tonnen Heizöl der beschädigten Schiffe vermischte.

In der Flut von Opfern in der ersten Nacht wurde fälschlicherweise angenommen, dass Hunderte von Überlebenden, die gesprungen oder über Bord geblasen worden waren und in Sicherheit schwammen, nur unter Schock und Untertauchen litten. Sie erhielten Morphium, wickelten sie in warme Decken und ließen sie 12 oder sogar 24 Stunden in ihren ölgetränkten Uniformen sitzen, während die Schwerverletzten zuerst versorgt wurden. Es war gleichbedeutend mit dem Marinieren in Senfgas. Aber alle waren sich der Gefahr nicht bewusst.

WEITERLESEN: Die Geschichte des Einsatzes chemischer Waffen reicht bis in die Antike zurück

Bis zum Morgengrauen hatten die Patienten rote, entzündete Haut und Blasen an ihrem Körper „von der Größe von Luftballons“. Innerhalb von 24 Stunden waren die Stationen voller Männer mit zugeschwollenen Augen. Die Ärzte vermuteten eine chemische Reizwirkung, aber die Patienten zeigten weder typische Symptome noch sprachen sie auf Standardbehandlungen an. Das Unbehagen der Mitarbeiter wurde nur noch größer, als die Benachrichtigung aus der Zentrale kam, dass die Hunderte von Verbrennungspatienten mit ungewöhnlichen Symptomen als „Dermatitis N.Y.D.“ eingestuft würden – noch nicht diagnostiziert.

Dann begannen ohne Vorwarnung Patienten in relativ gutem Zustand zu sterben. Diese plötzlichen, mysteriösen Todesfälle ließen die Ärzte ratlos und ratlos zurück, wie sie weiter vorgehen sollten. Gerüchte verbreiteten sich, die Deutschen hätten ein unbekanntes Giftgas eingesetzt. Angesichts der steigenden täglichen Zahl der Todesopfer riefen britische Beamte in Bari das Hauptquartier der Alliierten Streitkräfte (AFHQ) in Algier mit einem „Rotlicht“-Anruf auf die medizinische Krise hin. Lieutenant Colonel Stewart Francis Alexander, ein junger Spezialist für chemische Kriegsführung, der zu Eisenhowers Stab gehörte, wurde sofort an den Ort der Katastrophe entsandt.

Die Erkenntnisse des Ermittlers wurden zensiert

Trotz der Ablehnungen der britischen Hafenbehörden diagnostizierte Alexander schnell eine Senfgasbelastung. Überzeugt, dass die Beschäftigung mit der militärischen Sicherheit die Tragödie verschlimmert hatte, verfolgte er beharrlich seine eigenen Ermittlungen, um die Quelle des chemischen Stoffes zu identifizieren und herauszufinden, wie er so viele Männer vergiftet hatte.

Nach sorgfältigem Studium der Krankenblätter zeichnete er die Positionen der zerstörten Frachtschiffe relativ zu den Gasopfern auf und konnte die John Harvey als Epizentrum der chemischen Explosion. Als Taucher Fragmente zerbrochener Gasgranaten hochzogen, wurden die Hüllen als von 100-Pfund-amerikanischen Senfbomben identifiziert.

Am 11. Dezember 1943 informierte Alexander das Hauptquartier über seine ersten Erkenntnisse. Das Gas stammte nicht nur aus dem eigenen Vorrat der Alliierten, sondern die Opfer trugen die Aufschrift „Dermatitis N.Y.D.“ durch das Eintauchen in eine giftige Lösung aus Senf und Öl, die auf der Oberfläche des Hafens schwimmt, länger ausgesetzt war.

Die Antwort, die Alexander erhielt, war schockierend. Während Eisenhower seine Diagnose akzeptierte, weigerte sich Churchill, das Vorhandensein von Senfgas in Bari anzuerkennen. Als der Krieg in Europa in eine kritische Phase eintrat, vereinbarten die Alliierten eine strikte Zensur der Chemiekatastrophe: Alle Erwähnungen von Senfgas wurden aus den offiziellen Aufzeichnungen gestrichen und Alexanders Diagnose aus den Krankenakten gestrichen.

LESEN SIE MEHR: Agent Orange war nicht die einzige tödliche Chemikalie, die in Vietnam verwendet wurde

Die Katastrophe von Bari führte zu einer Offenbarung über die Wirkung der Chemikalie auf weiße Blutkörperchen

Alexanders „Abschlussbericht über die Bari Mustard Casualties“ wurde sofort klassifiziert, aber nicht bevor seine überraschende Entdeckung der toxischen Wirkung auf weiße Blutkörperchen die Aufmerksamkeit seines Chefs im Chemical Warfare Service (CWS), Colonel Cornelius P. „Dusty“, erregte. Rhoads. Im zivilen Leben war Rhoads Leiter des New Yorker Memorial Hospital für die Behandlung von Krebs und verwandten Krankheiten.

Von den mehr als 617 Opfern, die in Bari Gas ausgesetzt waren, starben 83, was alle die unterdrückende Wirkung von Senf auf die Zellteilung demonstrierte – was darauf hindeutet, dass er verwendet werden könnte, um die sich schnell vermehrenden bösartigen weißen Blutkörperchen zu hemmen, die in gesundes Gewebe eindringen und es zerstören können. Alexander hatte unschätzbare Daten aus der Leichenhalle voller Fallstudien extrahiert, die auf eine Chemikalie hinwiesen, die möglicherweise als Waffe im Kampf gegen bestimmte Krebsarten eingesetzt werden könnte.

Basierend auf Alexanders wegweisendem Bari-Bericht und einer streng geheimen klinischen Studie der Yale University, die zeigte, dass Stickstoffsenf (ein stabilerer Cousin von Schwefelsenf) Tumore schrumpfen kann, war Rhoads überzeugt, dass die schädliche Substanz – in winzigen, sorgfältig kalibrierten Dosen – sein könnte verwendet, um zu heilen. Im Jahr 1945 überredete er die General Motors-Tycoons Alfred P. Sloane und Charles F. Kettering, das Sloan-Kettering-Institut für Krebsforschung (SKI) zu finanzieren, um ein hochmodernes Labor mit Kriegswissenschaftlern zu schaffen, um neue Senfderivate und entwickeln das erste Medikament gegen Krebs – heute als Chemotherapie bekannt.

1949 wurde Mustargen (Mechlorethamin) das erste von der FDA zugelassene experimentelle Chemotherapeutikum und wurde erfolgreich zur Behandlung des Non-Hodgkin-Lymphoms eingesetzt. Dieser Triumph regte die Suche nach anderen chemischen Wirkstoffen an, die spezifisch auf bösartige Zellen abzielten, aber normale Zellen verschonten, was dazu führte, dass die American Cancer Society der Katastrophe von Bari den Beginn des „Zeitalters der Krebs-Chemotherapie“ zuschrieb.

Jennet Conant ist die Bestsellerautorin von Das große Geheimnis: Die klassifizierte Chemiewaffenkatastrophe, die den Krieg gegen den Krebs auslöste sowie zahlreiche andere Bücher über World II.


Chemotherapie

“Alexanders „Final Report of the Bari Mustard Casualties“ wurde sofort klassifiziert, aber nicht bevor seine überraschende Entdeckung der toxischen Wirkung auf weiße Blutkörperchen die Aufmerksamkeit seines Chefs im Chemical Warfare Service (CWS), Colonel Cornelius P., erregte.“ Dusty“ Rhoads. Im zivilen Leben diente Rhoads als Leiter des New Yorker Memorial Hospital für die Behandlung von Krebs und verwandten Krankheiten.”

“Von den mehr als 617 Opfern, die in Bari Gas ausgesetzt waren, starben 83, was alle die unterdrückende Wirkung von Senf auf die Zellteilung demonstriert – was darauf hindeutet, dass es verwendet werden könnte, um die sich schnell vermehrenden bösartigen weißen Blutkörperchen zu hemmen, die in gesundes Gewebe eindringen und es zerstören können. Alexander hatte unschätzbare Daten aus der Leichenhalle voller Fallstudien extrahiert, die auf eine Chemikalie hinwiesen, die möglicherweise als Waffe im Kampf gegen bestimmte Krebsarten eingesetzt werden könnte.”

“ Basierend auf Alexanders wegweisendem Bari-Bericht und einer streng geheimen klinischen Studie der Yale University, die zeigte, dass Stickstoffsenf (ein stabilerer Cousin von Schwefelsenf) Tumore schrumpfen kann, war Rhoads davon überzeugt, dass die schädliche Substanz – in winzigen, sorgfältig kalibrierten Dosen – zur Heilung verwendet werden könnte. Im Jahr 1945 überredete er die General Motors-Tycoons Alfred P. Sloane und Charles F. Kettering, das Sloan-Kettering-Institut für Krebsforschung (SKI) zu finanzieren, um ein hochmodernes Labor mit Kriegswissenschaftlern zu schaffen, um neue Senfderivate und entwickeln das erste Medikament gegen Krebs – heute als Chemotherapie bekannt.”

� wurde Mustargen (Mechlorethamin) das erste von der FDA zugelassene experimentelle Chemotherapeutikum und wurde erfolgreich zur Behandlung des Non-Hodgkin-Lymphoms eingesetzt. Dieser Triumph regte die Suche nach anderen chemischen Wirkstoffen an, die spezifisch auf bösartige Zellen abzielten, aber normale Zellen verschonten, was dazu führte, dass die American Cancer Society der Katastrophe von Bari den Beginn des „Zeitalters der Krebs-Chemotherapie“ zuschrieb.”

Von der chemischen Waffe zur Chemotherapie, 1917–1946 STICKSTOFF-SENF: DER URSPRUNG DER CHEMOTHERAPIE BEI ​​KREBS Schockierende Fakten über Chemotherapie-Behandlungen -Sie werden keine Chemo machen, nachdem Sie dieses Video gesehen haben Chemotherapie-Behandlung tötet –, warum Sie es niemals tun sollten NEUE STUDIE: CHEMOTHERAPIE KANN BEI DER VERBREITUNG VON KREBS HELFEN, AGGRESIVERE TUMOREN VERURSACHEN – Corbett Report DIE WAHRE GESCHICHTE DER CHEMOTHERAPIE UND DAS PHARMAZEUTISCHE MONOPOLY


Ein schwieriger Start für die Präsidentschaftsvorwahlen

Politiker des frühen 20. Jahrhunderts plädierten für Vorwahlen, indem sie sagten, sie würden den Nominierungsprozess demokratischer gestalten, auch wenn dies nicht immer der Hauptgrund der Politiker war, sie zu unterstützen. Im Jahr 1912 unterstützte der frühere Präsident Theodore Roosevelt – der sich zuvor gegen Vorwahlen ausgesprochen hatte – sie öffentlich, als er erkannte, dass dies der einzige Weg sein könnte, dem amtierenden Präsidenten (und seinem ehemaligen Vizepräsidenten) William Howard Taft die Nominierung der Republikanischen Partei zu entreißen.

Nur 13 der 48 Bundesstaaten hielten bei den Wahlen von 1912 republikanische Vorwahlen ab. Obwohl Roosevelt die meisten Rennen gewann, konnte er jedoch nicht genügend Delegierte gewinnen, um die Nominierung zu gewinnen. Er reagierte, indem er sich von den Republikanern löste und die Progressive Party oder die "Bull Moose Party" gründete, damit er auf ihrem Ticket für das Präsidentenamt kandidieren konnte. Der Nominierungsprozess der neuen Partei war jedoch zutiefst undemokratisch: Der Kongress der Progressiven weigerte sich, schwarze Delegierte zu setzen, einschließlich derer …weiterlesen


1. Deutschland an zwei Fronten abgestoßen

UHR: Die bleibenden Auswirkungen des Krieges

Nachdem sie in den ersten drei Kriegsjahren quer durch Europa gestürmt waren, gerieten überforderte Achsenmächte in die Defensive, nachdem die sowjetische Rote Armee sie in der brutalen Schlacht von Stalingrad, die von August 1942 bis Februar 1943 dauerte, zurückgewiesen hatte. Der erbitterte Kampf um die Stadt benannt nach dem sowjetischen Diktator Joseph Stalin, forderte fast zwei Millionen Todesopfer, darunter den Tod von Zehntausenden Einwohnern Stalingrads.

Als die sowjetischen Truppen an der Ostfront vordrangen, drangen die Westalliierten in Sizilien und Süditalien ein, was im Juli 1943 zum Sturz der Regierung des italienischen Diktators Benito Mussolini führte. Die Alliierten eröffneten dann mit der amphibischen D-Day-Invasion der Normandie am 6. Juni 1944. Nachdem die alliierten Truppen in Nordfrankreich Fuß gefasst hatten, befreiten sie am 25. August Paris, gefolgt von Brüssel …weiterlesen


Wie eine Chemiewaffenkatastrophe im Zweiten Weltkrieg zu einer US-Vertuschung und einer neuen Krebsbehandlung führte

In der alten Hafenstadt Bari an der italienischen Adriaküste herrschte geschäftiges Treiben. Es war der 2. Dezember 1943. Die Briten hatten Apuliens Hauptstadt im September eingenommen, und obwohl die Front jetzt nur noch 250 Meilen nördlich lag, war die mittelalterliche Stadt mit ihren massiven Klippen, die das Meer wiegen, den Kämpfen fast unbeschadet entgangen.

Nur ein paar Kilometer außerhalb der Stadt bettelten Frauen und Kinder um Lebensmittel auf dem Schwarzmarkt, doch hier waren die Schaufenster voller Obst, Kuchen und Brot. Junge Paare schlenderten Arm in Arm. Sogar Eisverkäufer machten einen regen Handel.

Bari war ein Dienstleistungszentrum im Mittelmeerraum und versorgte die 500.000 alliierten Truppen, die die Deutschen aus Italien vertreiben wollten. Großartige Gebäude am Wasser wurden kürzlich zum Hauptquartier der US-amerikanischen Fünfzehnten Luftwaffe ernannt. Die befreienden Tommies hatten die Nazis bereits vom Himmel über Italien gejagt, und die Briten, die den Hafen kontrollierten, waren so zuversichtlich, den Luftkrieg gewonnen zu haben, dass Air Marshal Sir Arthur Coningham verkündete, Bari sei gegen Angriffe so gut wie immun. „Ich würde es als persönliche Beleidigung und Beleidigung ansehen, wenn die Luftwaffe in diesem Bereich bedeutende Aktionen unternehmen würde“, sagte er an diesem Tag auf einer Pressekonferenz.

Vier Tage zuvor das amerikanische Liberty-Schiff John Harvey war mit einem Konvoi von neun anderen Handelsschiffen eingefahren, und etwa 30 alliierte Schiffe wurden in den Hafen gepfercht, dicht an der Ufermauer und entlang des Piers. Ihre Laderäume waren mit allem beladen, von Lebensmitteln und medizinischer Ausrüstung bis hin zu Motoren, Wellstahl für Landebahnen und 50-Gallonen-Fässern Flugbenzin. Auf den Oberdecks waren Panzer, Schützenpanzer, Jeeps und Krankenwagen zu sehen. Helle Lichter blitzten auf riesigen Kränen auf, die Ballenmaterial auf- und abhoben.

Um 19:35 Uhr – ein blendender Blitz, gefolgt von einem grandiosen Knall.

Die einzelne Flugabwehrbatterie des alten Hafens eröffnete das Feuer. Dann kam eine ohrenbetäubende Explosion, dann noch eine und noch eine. Deutsche Junkers Ju-88 flogen tief über die Stadt und warfen Bomben kurz vor dem Hafen ab. Rauch und Flammen stiegen aus den verwinkelten Gassen der Stadt auf.

Als Brandbomben auf den Hafen herabregneten und die Nacht zum Tag machten, versuchten die Kanoniere an Bord der vor Anker liegenden Schiffe, den Feind abzuschießen – zu spät. Die angreifenden deutschen Flugzeuge flohen in die Nacht. Die Razzia dauerte weniger als 20 Minuten.

Bald ertönte ein gewaltiges Gebrüll aus dem Hafen. Ein explodierender Munitionstanker schickte eine riesige Flammenmasse von tausend Fuß Höhe. Ein Reporter für Zeit Magazin stellte ein „feuriges Panorama“ fest. Acht Schiffe brannten bereits "in heftigem Feuer", schrieb er, und "das gesamte Zentrum des Hafens war mit brennendem Öl bedeckt".

Eine geplatzte Treibstoffpipeline ließ Tausende von Gallonen in den Hafen strömen, wo sie sich zu einer riesigen Flammenwand entzündete und die gesamte Nordseite des Hafens verschlang. Flammen schlugen von Schiff zu Schiff. Die Besatzungen arbeiteten verzweifelt daran, Schiffe zu befreien, bevor sie von wütenden Feuern gezwungen wurden, über Bord zu springen und dafür zu schwimmen.

Der Angriff auf Bari, den die Presse „ein wenig Pearl Harbor“ nannte, erschütterte die Selbstgefälligkeit der alliierten Streitkräfte, die von ihrer Luftüberlegenheit in Italien überzeugt waren. Insgesamt versenkten die Nazis 17 alliierte Schiffe und zerstörten mehr als 31.000 Tonnen wertvolle Fracht. Mehr als 1.000 amerikanische und britische Soldaten wurden getötet und fast ebenso viele verwundet, zusammen mit Hunderten von Zivilisten.

In den entscheidenden Tagen, die folgten, wurde die Aufgabe, schwer verletzte Matrosen zu behandeln, durch das Kriegsgeheimnis noch schwieriger. Es würde fast 30 Jahre dauern, bis die Welt die Wahrheit darüber erfahren würde, was in dieser Nacht wirklich geschah, und selbst heute sind sich nur wenige der überraschenden Rolle der Katastrophe und ihrer Auswirkungen auf das Leben gewöhnlicher Amerikaner bewusst.

Oberstleutnant Stewart Francis Alexander, der in seinem Quartier im Hauptquartier der Alliierten Streitkräfte in Algier schlief, wurde beim ersten grellen Klingeln des Telefons wach. In Bari schien sich eine medizinische Krise zu entwickeln. Zu viele Männer starben zu schnell an ungeklärten Ursachen. Die Symptome waren anders als alles, was Militärärzte zuvor gesehen hatten, und sie begannen zu vermuten, dass die Deutschen ein unbekanntes Giftgas verwendet hatten. Es gab eine dringende Bitte um Hilfe. Alexander, ein medizinischer Offizier, der dem Stab von General Dwight D. Eisenhower im AFHQ angehörte, hatte eine spezielle Ausbildung in chemischer Kriegsführung erhalten. Er wurde sofort zum Tatort geschickt.

Oberstleutnant Stewart Alexander, ein Arzt und Kardiologe, wurde zum Experten für chemische Waffen und leitete die Untersuchung der Katastrophe von Bari. (Stewart F. Alexander Papiere)

Alexander sah für einen Kampfarzt jung aus. Er war 1,80 m groß und dünn, 29 Jahre alt, und nur das dünner werdende Haar an seinen Schläfen verlieh ihm einen Hauch von Autorität. Er war bei den Truppen beliebt, obwohl einige Patienten scherzten, dass seine sanfte Art am Krankenbett am besten zu einem Kinderarzt passte. Aber er hatte die brutale Invasion Nordafrikas unter Generalmajor George S. Patton mitgemacht, und trotz einer stillen Bescheidenheit hatte Alexander sich entschlossen und einfallsreich bewiesen.

Er hätte den Krieg in einem Krankenhaus oder einem Forschungslabor in den USA aussitzen können, aber der Wunsch, zu dienen, war tief. Er stammte von Selfmade-Immigranten ab, die Teil einer Welle osteuropäischer Juden waren, die auf der Flucht vor Hunger und Verfolgung in den 1880er und 90er Jahren in die Vereinigten Staaten reisten und für immer dankbar für die Gelegenheit waren, die ihnen in ihrer neuen Heimat geboten wurde. Alexanders Vater war ein altmodischer Hausarzt in Park Ridge, New Jersey, und Alexanders einziger Ehrgeiz war es, in seine Fußstapfen zu treten. Nachdem er sich an der Staunton Military Academy in Virginia hervorgetan hatte, trat er im Alter von 15 Jahren in das Dartmouth College ein. Er war ein herausragender in seinen naturwissenschaftlichen Kursen und durfte in seinem Abschlussjahr direkt zur medizinischen Fakultät aufsteigen und schloss 1935 als Klassenbester ab. Nach Abschluss des zweijährigen Programms von Dartmouth erwarb er seinen Abschluss in Medizin an der Columbia University und absolvierte seine Facharztausbildung in New York. Dann kehrte Alexander nach Hause zurück, wo er stolz seine Schindel neben die seines Vaters hängte. Nur wenige Monate genossen sie ihren gemeinsamen Traum, gemeinsam Medizin zu praktizieren.

Im Frühjahr 1940 teilte Alexander dem Entwurfsausschuss mit, dass er „jederzeit verfügbar“ sei. Er wurde im November einberufen und verbrachte einige Zeit beim 16. Infanterieregiment, das im Gunpowder Military Reservation in Maryland stationiert war, nicht weit von Edgewood Arsenal, der Heimat des Chemical Warfare Service (CWS). Schon nach kurzer Zeit kontaktierte er CWS mit einem innovativen neuen Design für Brillen, die in das Gesichtsstück einer Gasmaske passen. (Er erhielt ein Patent auf die Brille, aber er übergab die Rechte an die Armee.)

Dugway Proving Ground in Utah, wo die US-Armee während des Zweiten Weltkriegs chemische Waffen testete. (David Maisel / INSTITUT)

Nach Edgewood versetzt, durchlief Alexander einen Crashkurs in Giftgasen, konsultierte Spezialisten und experimentierte an Tieren, um toxische Wirkstoffe und Behandlungsformen zu bewerten, er untersuchte sogar das medizinische Potenzial von Wirkstoffen. Nach Pearl Harbor lehrte er medizinisches Personal der Armee, wie man Chemieunfälle behandelt. Im Alter von 27 Jahren wurde er zum Direktor der medizinischen Abteilung des CWS-Forschungslabors befördert der Berater der Western Task Force für chemische Kriegsführungsmedizin.

Jetzt um 17 Uhram 7. Dezember 1943, fünf Tage nach dem Angriff auf Bari, landete Alexanders Flugzeug auf dem städtischen Flugplatz. Auf dem Rollfeld warteten der leitende Offizier des britischen Royal Army Medical Corps des Bezirks und eine Gruppe von Krankenhausdirektoren auf ihn. „Ihre Erregung war sofort spürbar“, erinnert sich Alexander, „und ich wurde sofort ins Krankenhaus gebracht.“

Das 98. British General Hospital, das sich in einem großen Komplex von Backsteingebäuden 15 Minuten vom Hafen entfernt befindet, war verschont geblieben. Die von den Faschisten geliebte monumentale Poliklinik von Bari beherbergte große Krankenstationen, einen chirurgischen Block und Labors.

„Bei jeder neuen Explosion knarrte und klapperte das Gebäude und schaukelte wie ein Schiff im Sturm“, erinnerte sich E. M. Somers Cocks, eine Krankenschwester aus Neuseeland, an den Angriff. „Türen wurden aus den Angeln gerissen, Fenster zerschmettert und die zugemauerten Fenster verstreuten ihre Ziegel wie Hagel.“ Eine Gehirnerschütterung brach die Energie aus und tauchte das Krankenhaus in Dunkelheit. Sie fegten noch Glas zusammen, als die Verwundeten eintrafen – Hunderte von blutverschmierten Matrosen, die unter Schock, Verbrennungen und Entblößung litten. Fast alle waren mit dickem, schwarzem Rohöl bedeckt. Die Sänfteträger bildeten das Schlusslicht und trugen die Schwerverletzten. Das waren Matrosen, die von brennenden Schiffen gesprungen waren oder durch brennende Öllachen geschwommen waren und schreckliche Verbrennungen erlitten.

Links, Bari, an der Südostküste Italiens, im November 1943. Die Briten hatten die strategische Hafenstadt zwei Monate zuvor eingenommen. Rechts sucht ein Rettungsboot nach dem Angriff vom Dezember 1943 im Hafen von Bari nach Überlebenden. Treibstoff von beschädigten Frachtern und einer geplatzten Pipeline überschwemmte den Hafen. (George Kaye / Alexander Turnbull Library / National Library of New Zealand U.S. Army Signal Corps / National Archives)

Bei so vielen Patienten, die dringend Hilfe benötigten, blieb keine Zeit, um viele Matrosen aus ihren schmutzigen Kleidern zu holen, also taten die Stationsdamen, was sie konnten. Die „Immersions“-Fälle erhielten einen Schuss Morphium, Decken, um sie warm und stark zu halten, heißer, süßer Tee. Dann wurden sie zur Ruhe gelassen. Eine britische Krankenschwester, Gwladys Rees, erinnerte sich, dass sie versucht hatte, im Licht eines Streichholzes eine intravenöse Leitung zu reparieren, während der Wind durch zerbrochene Fenster blies. „Wir arbeiteten im schwachen Schein der Hurrikanlampen bis spät in die Nacht und in den frühen Morgen“, erinnert sie sich. „Aus jedem dritten Bett tropften intravenöse Flaschen, und die Flure waren vollgestopft mit Patienten, für die wir keine Unterkunft finden konnten.“

Der erste "ungewöhnliche" Hinweis, teilten die Ärzte Alexander mit, sei, dass die Verletzten weder typische Symptome aufwiesen noch auf die Behandlung in typischer Weise ansprachen. Viele Patienten schienen sich trotz eines fadenförmigen Pulses und niedrigem Blutdruck nicht in einem klinischen Schockzustand zu befinden. Anstatt unruhig oder ängstlich zu sein, waren sie apathisch – manche sagten sogar, dass sie sich „ziemlich wohl“ fühlten – und ihre Extremitäten waren eher warm als kalt.

Im Morgengrauen beobachteten Schwestern, dass einige der Männer über Durst klagten, obwohl die Pfleger gerade mit dem Getränkewagen herumgefahren waren. Plötzlich schrien so viele Männer nach Wasser, dass die ganze Gemeinde in Aufruhr war. Die Patienten schrien über die große Hitze, rissen sich die Kleider vom Leib und versuchten in ihrer Raserei, ihre Verbände abzureißen.

Über Nacht hatten die meisten Tauchfälle eine rote und entzündete Haut entwickelt, mit Blasen „so groß wie Ballons und schwer mit Flüssigkeit“, erinnerte sich Rees. Dies, zusammen mit weit verbreiteter Übelkeit und Erbrechen, ließ die Ärzte vermuten, dass die Ursache giftige Dämpfe sein könnten, möglicherweise aus dem Heizöl und Sprengstoff. „Uns wurde klar, dass die meisten unserer Patienten von etwas jenseits aller Vorstellungskraft kontaminiert worden waren“, sagte sie.

Sechs Stunden nach dem Anfall erwachten Patienten, denen es gelungen war, einzuschlafen, und klagten über Augenschmerzen. Sie sagten, ihre Augen fühlten sich „körnig an, als wären Sandpartikel eingedrungen“, schrieb Alexander in seinem Bericht. Innerhalb von 24 Stunden waren die Stationen voller Männer mit zugeschwollenen Augen. Als das Unbehagen des Personals zunahm, schickte das britische Marinehauptquartier eine Benachrichtigung, dass es bei den Opfern „möglicherweise eine Blasengasbelastung“ gebe. Die Hunderte von Verbrennungspatienten mit ungewöhnlichen Symptomen sollten als „Dermatitis N.Y.D.“ – noch nicht diagnostiziert – klassifiziert werden, bis weitere Anweisungen vorliegen.

Angesichts des Andrangs von Opfern in der ersten Nacht wurden nicht dringende Fälle, die in „gutem Zustand“ erschienen waren, weggeschickt, manchmal in ihren nassen Uniformen. Am nächsten Morgen kehrten viele zurück und benötigten eindeutig eine Behandlung. Krankenschwestern versuchten, sie zu reinigen, indem sie den schwarzen Abschaum mit Kerosin von der Haut der Patienten schrubben, aber viele wurden zum Schlechteren. "Wir haben alles Menschenmögliche getan, aber es war nicht gut", sagte Rees. „Es war schrecklich, diese Jungs zu sehen, so jung und mit so offensichtlichen Schmerzen. Wir konnten ihnen nicht einmal starke Beruhigungsmittel geben, da wir nicht ganz sicher waren, wie sie auf das reagieren würden, was sie vergiftet hatte.“

Der erste ungeklärte Todesfall ereignete sich 18 Stunden nach dem Angriff. Innerhalb von zwei Tagen waren es 14. Alexander bemerkte die verblüffende Abwärtsspirale. „Personen, die innerhalb weniger Minuten in ziemlich gutem Zustand erschienen, würden sterben und sterben“, sagten ihm die Ärzte. Die britischen Ärzte waren verwirrt. Die Symptome entsprachen weder den Fallgeschichten von Senfgasvergiftungen aus dem Ersten Weltkrieg noch den Handbüchern des Chemical Warfare Service. Wenn das giftige Mittel Senf war – benannt nach seinem unangenehmen Knoblauchgeruch – hätten die Atemwegskomplikationen deutlicher auftreten müssen.

Ein Poster aus der Zeit des Zweiten Weltkriegs mit einer offensichtlichen Karikatur von Mussolini, um den US-Truppen zu helfen, Senfgas zu identifizieren, eine Waffe, die nach ihrem unangenehmen Geruch benannt ist. (Historisches Archiv von Otis / Nationalmuseum für Gesundheit und Medizin)

Einige Tage später bekamen Patienten ohne vorherige Atemprobleme Staus und bekamen starke Halsschmerzen, die das Schlucken erschwerten. Diese Patienten starben nicht an einer Bronchopneumonie, wie man hätte erwarten können, sondern an Herz-Kreislauf-Versagen.

Alexander ging durch die überfüllten Stationen. Er untersuchte die Patienten, hob sanft Decken hoch, um ihre Wunden zu untersuchen. Mit außergewöhnlicher Zartheit sondierte er die seltsamen Flecken verdickter roter Haut. Er sprach nacheinander mit jedem Patienten und fragte, wie er zu seinen Verletzungen gekommen sei. Auf welchem ​​Schiff war er? Wie kam es, dass er gerettet wurde? Hat er an den Docks Erste Hilfe erhalten? Was ist mit dem Krankenhaus? Ein Matrose nach dem anderen erzählte, dass er vom Feuersturm erwischt worden war, vom Pandämonium, dass er es irgendwie ins Krankenhaus geschafft hatte. Dort hatten sie bis zu 12 und sogar 24 Stunden auf die Behandlung gewartet.

Alexander zog die Decke eines Patienten zurück und untersuchte die Verbrennungen an einem ansonsten gesunden Körper. Der Matrose sagte, er sei an Bord eines PT-Bootes im Hafen gewesen, als die deutschen Bomber überflogen. Er hörte ein lautes Knallen, als ein nahes Schiff explodierte, und das Boot flog wieder ans Ufer, als er spürte, wie eine ölige Flüssigkeit auf seinem Nacken landete und über Brust und Rücken lief. Alexander beobachtete die Umrisse einer rauen, erhabenen Haut, die vor Salbe glänzte und die die Stelle, an der er besprüht worden war, abzeichnete, als hätte sich der Spritzer in sein Fleisch eingeprägt. Die Verbrennungen, die Alexander bei anderen Patienten gesehen hatte, waren vielfältig, aber er konnte bereits zwischen Verätzungen und Verbrennungen durch Feuer und Hitze unterscheiden: „Bestimmte Muster waren vorhanden, je nachdem, wie die Person exponiert war.“

Es kam Alexander vor, als seien über Bord geworfene und vollständig im Hafen versunkene Matrosen großflächig verbrannt worden, während die in Booten überall dort, wo die giftige Suppe sie getroffen hatte, vergleichsweise oberflächliche Verbrennungen erlitten. Mehrere Männer, die in der Lösung gesessen hatten, möglicherweise in Rettungsbooten, hatten nur lokale Verbrennungen an Gesäß und Leistengegend. Ein paar glückliche Seelen, die es in der ersten Nacht auf sich nahmen, die ölige Mischung abzuwischen, erlitten nur leichte Verletzungen.

Als er seine Runden machte, wurde Alexander immer klarer, dass die meisten dieser Patienten einer chemischen Substanz ausgesetzt waren. Sein Geruchssinn unterstützte seine Hypothese. Als er das Krankenhaus betrat, war ihm etwas anderes aufgefallen als die übliche klebrige Mischung aus Schweiß, Urin und Desinfektionsmittel. "Spuren eines Geruchs, der sich in meinem Kopf eingepflanzt hatte, sagten Senfgas", erinnerte er sich später.

Er wusste, dass die drei häufigsten Blasenbildner Schwefelsenf, Lewisit und Stickstoffsenf waren. Obwohl allgemein als „Gas“ bezeichnet, waren alle drei Wirkstoffe bei Raumtemperatur Flüssigkeiten. Und alle drei verursachten Hautverletzungen, die Verbrennungen ähnelten, und schwere Augenverletzungen. Besonders besorgniserregend war der von den Deutschen entwickelte neue, reine Stickstoffsenf, den Alexander im Vorjahr in Edgewood untersucht hatte, nachdem zwei klassifizierte Proben aus Deutschland geschmuggelt worden waren. Seine Wirkung war Berichten zufolge schneller als Schwefelsenf, und es könnte intakte Haut durchdringen und systemische Vergiftungen verursachen. Praktisch farb- und geruchlos, abgesehen von einem schwachen Fischgeruch, war es im Feld nicht leicht zu erkennen. Die Deutschen waren auch dafür bekannt, Mischungen von Blistermitteln zu verwenden, sodass jede Kombination eine reale Möglichkeit war.

Freigegebene Fotos von Testpersonen in US-Militärversuchen, die während des Krieges giftigen Stoffen wie Stickstoffsenf ausgesetzt waren. (Mit freundlicher Genehmigung des Marineforschungslabors)

Seit der ersten Enttarnung waren fünf Tage vergangen, und wenn es eine Chance gab, die Hunderte von alliierten Matrosen, die in den Krankenhäusern in ganz Bari lagen, sowie unzählige italienische Zivilisten zu retten, musste er schnell handeln.

Er beschloss, die Frage direkt an den Kommandanten des 98. General Hospital, Col. Wellington J. Laird, zu richten. „Ich habe das Gefühl, dass diese Männer auf irgendeine Weise Senf ausgesetzt waren, Colonel“, sagte Alexander zögernd. "Hast du eine Ahnung, wie das passiert sein könnte?"

Als Berater für chemische Kriegsführung wurde Alexander in „höchstem Maße“ freigesprochen. Er wusste, dass die Alliierten damit begonnen hatten, heimlich Giftgas im Mittelmeer zu lagern, für den Fall, dass Deutschland mit dem Rücken zur Wand zu einer umfassenden chemischen Kriegsführung griff. Aber er war skeptisch, dass die Alliierten Senfgranaten in einen geschäftigen Hafen wie Bari verschifften und die giftige Fracht dort als Hauptziel für einen feindlichen Angriff ablegen ließen. Alexander konnte es dennoch nicht ausschließen. Taktvoll versuchte er es noch einmal. „Haben Sie sich bei den Hafenbehörden erkundigt?“ fragte er Laird. „Könnten die Schiffe im Hafen Senf transportiert haben?“

Laird antwortete: "Das habe ich, und sie sagen mir, dass sie keine solchen Informationen zur Verfügung haben."

Die Beweislast lag bei ihm. Er ordnete eine Reihe von Tests für die noch lebenden Patienten an und bestand auf "sorgfältigen und vollständigen Autopsien" von Patienten, die unter mysteriösen Umständen gestorben waren. Er ließ Proben des Hafenwassers sammeln und analysieren. Er lieh sich Personal von vertriebenen Krankenhauseinheiten und setzte sie ein, um Daten zu sammeln, Labortests an Gewebeproben durchzuführen und Pathologieberichte zu erstellen.

Im Verdacht, dass Laird seiner Frage ausgewichen war, besuchte Alexander das Navy House, das örtliche Hauptquartier der britischen Admiralität. Müde von dem langen Tag, war er unverblümt: Gab es Senfgas im Hafen von Bari? Dies wurde erneut „absolut verneint“.

Alexander ging nicht überzeugt. Was er brauchte, war ein Beweis. Aber das war nicht die vertraute Bedrohung, die er in Edgewood studiert hatte. Dies war ein neuer Horror, "Senfgasvergiftung, wenn auch in einer anderen Gestalt als die, die aus dem Ersten Weltkrieg bekannt war", schrieb er später.

Beim ersten Tageslicht steuerte Stewart Alexander zum Hafen zu. Er bahnte sich seinen Weg durch Schutthaufen und betrachtete die verdrehten Skelettreste der alliierten Konvois. Draußen auf der Mole arbeiteten Männer wie Ameisen und entfernten zerklüftete Betonbrocken und Schrott. Der Hafen, der fünf Tage lang gesperrt und nach Minen gefegt worden war, war an diesem Morgen teilweise wieder geöffnet. Mehrere ausgebrannte Schiffe waren bereits aufs Meer geschleppt und versenkt oder auseinander gesprengt worden. Auf einem Kai in der Nähe schwelte noch immer ein Kohlekahn, und die Flugasche brannte ihm in der Nase.

Das dunkle, ölschleimte Wasser im Hafenbecken sah unheimlich aus. Ein Matrose hatte sich daran erinnert, dass das schwimmende Öl nach dem Überfall einen Fuß dick auf der Wasseroberfläche gewesen war. Es war eine Mischung aus hochoktanigem Benzin und Treibstoff von zwei Dutzend alliierten Schiffen und, vermutete Alexander, Senfgas oder ein Derivat, das möglicherweise von den Deutschen unter den Brandbomben abgeworfen wurde. Alexander fragte sich, welche anderen Agenten in die Mischung geworfen worden sein könnten. Die Deutschen besaßen Phosphor- und Magnesiumbomben, die beide tiefe Verätzungen und Augenverletzungen verursacht hätten. Eine andere Möglichkeit war, dass ein Frachtschiff der Alliierten weiße Phosphorgranaten und Rauchtöpfe transportiert hatte – entworfen, um Annäherungen zu maskieren und den Feind zu verunsichern – die freigesetzt wurden, wenn das Schiff getroffen wurde.

Wenn es sich um einen Gasangriff aus der Luft handelte, würde ihm die Bestimmung, welche Schiffe und in welcher Reihenfolge getroffen wurden, helfen zu verstehen, welche Besatzungen am direktesten betroffen waren. Sogar Männer, die sich nicht auf dem Wasser befanden, hätten erhebliche Dosen des schädlichen Dampfes eingeatmet, als er sich über den Hafen ausbreitete – einige davon sanken, andere brannten, einige vermischten sich mit den Tonnen an Öl, die an der Oberfläche trieben, und einige verdampften und vermischten sich mit den Wolken von Rauch und Flamme. Deutsche Flugzeuge hätten zeitverschmolzene Senfbomben abwerfen können, die etwa 60 Meter über dem Wasser aufplatzen würden, oder bei einem „Sprühangriff“ in geringer Höhe flüssigen Senf aus Panzern freigesetzt haben, der dann durch den Windschatten in winzige . verwandelt worden wäre Tröpfchen, die einem Dampf ähneln. Alexander argumentierte, dass der Angriff in jedem Fall alle Schiffe im Innenhafen kontaminiert hätte, einschließlich der verkrüppelten Schiffe, die über Wasser blieben, und alle Männer auf den Docks darunter durchnässt hätte.

Doch Alexander hatte bei seiner Untersuchung des Hafenbereichs keine Anzeichen für eine Senfverunreinigung gefunden. Und das von ihm interviewte Personal der Royal Navy schien schockiert über die Vermutung, dass bei dem Luftangriff Giftgas freigesetzt worden sein könnte. "Senf?" wiederholte ein britischer Offizier überrascht und schüttelte den Kopf. "Das ist unmöglich. Hier gibt es keinen Senf.“

Als er mit britischen Hafenbehörden sprach, erklärten sie weiterhin „kategorisch, dass es in der Gegend keinen Senf gebe“. Unbeirrt beschrieb Alexander im Detail die entsetzlichen Verbrennungen, die er im Krankenhaus gesehen hatte, und bestand darauf, dass diese Verletzungen auf keinen Fall durch etwas anderes als durch Chemikalien verursacht worden sein könnten. Von den 534 Männern, die nach dem Angriff in die alliierten Krankenhäuser eingeliefert wurden, litten 281 an Symptomen, die auf eine Senfvergiftung hindeuteten. An diesem Tag waren 45 gestorben. Dies waren nur die dokumentierten Fälle. Es wäre mit vielen weiteren Todesfällen zu rechnen, wenn sie nicht dringend angemessen behandelt würden. Die überwiegende Mehrheit der Opfer waren Briten – ihre eigenen Landsleute.

Die Behörden begannen zu schwanken. Sie ließen zu, dass, wenn im Hafen Senfgas vorhanden wäre, "es nur von den deutschen Flugzeugen gekommen sein kann". Alexander dachte über die Konsequenzen der Anschuldigung nach, Hitler habe in einem verzweifelten Wagnis eine Gasoffensive riskiert. Aber nach einer Reihe entschiedener Verleugnungen bis hin zu einem Hauch von Senf in Bari schien es Alexander eine zu nette Erklärung zu sein.

Tagelang brütete er in den Krankenakten. „Die Berichte zu lesen“, schrieb er, „begibt sich auf eine Reise in den Albtraum der Auswirkungen chemischer Kontamination.“

Aus seiner Ausbildung wusste Alexander, dass Wirkstoffe wie Senf in Dampf oder flüssiger Form giftig sind, wenn sie in Augen, Nase, Lunge oder Magen-Darm-Trakt gelangen. Die Chemikalien können aber auch von der Haut aufgenommen werden. Und jeder Giftstoff, der hauptsächlich mit der Epidermis in Kontakt kommt, würde daher zu verzögerten klinischen Symptomen führen – wie es bei den verwirrenden Bari-Opfern der Fall war.

Dies waren die Symptome, die er im Sinn hatte, als er den Fall von Seemann Philip Henry Stone untersuchte, einem Patienten, der plötzlich gestorben war, nachdem er um einen Drink gebeten hatte. Die Ärzte hatten ihn als Beispiel für einen der unerklärlichen „frühen Todesfälle“ genannt. Der Pathologe stellte „ein generalisiertes dunkles Erythem“ oder gerötete Haut an Brust, Bauch und Oberschenkeln sowie viele Blasen an Gesicht, Ohren, Armen, Rücken und äußeren Genitalien fest. „Die Lippen waren mattschwarz“, schrieb er.

Bei der Autopsie stellte der Pathologe auch fest, dass die Speiseröhre einen "kuriosen schwarzen Längsstreifen" aufwies, wahrscheinlich aufgrund von abgestorbenen Zellen und Gewebe. Die Lungen, schwarz-rot gesprenkelt, waren verstopft, die Bronchien mit Eiter gefüllt und die Luftröhre mit Flüssigkeit angeschwollen. Der Magen zeigte die gleichen schwarzen Bereiche, und es gab nekrotische Bereiche in der Nähe der Öffnung, die wahrscheinlich durch das Schlucken einer verdünnten Senflösung mit Öl verursacht wurden.

Nach dem Studium der Berichte kam Alexander zu dem Schluss, dass viele Seeleute, die Explosionen erlitten hatten, ohne andere Komplikationen nicht den Blutungen erlegen wären: ersichtlich."

Alexander versuchte immer noch zu entscheiden, wie er angesichts des offiziellen Widerstands gegen seine Diagnose am besten vorgehen sollte, als er erstaunliche Neuigkeiten erhielt. Ein Taucher, den er befohlen hatte, den Hafenboden zu durchsuchen, hatte gebrochene Gasgranaten gefunden. Tests vor Ort ergaben Spuren von Senf. Ordnance-Offiziere der US-Luftwaffe identifizierten die Hüllen als zu einer 100-Pfund-M47A2-Senfgasbombe gehörend. Deutsche Senfgasbomben waren immer mit dem markanten Gelben Kreuz gekennzeichnet. Diese Bombe war definitiv amerikanisch.

Alexanders Instinkte waren richtig – ein alliiertes Schiff, das später als das . identifiziert wurde John Harvey , hatte eine Ladung Senfgas mitgeführt. Die geheime Lieferung war höchstwahrscheinlich für ein Chemielager im 75 Meilen entfernten Foggia bestimmt gewesen, um die US-Fähigkeit zu verbessern, sich gegen einen deutschen Chemieangriff zu wehren.

Wie Alexander aus seiner Ausbildung wusste, bestand die M47-Bombe aus einfachem Blech, das weißen Phosphor oder flüssigen Schwefelsenf aufnehmen konnte. Obwohl das Modell M47A2 innen mit einem Öl beschichtet war, um es vor Korrosion durch den Agenten zu schützen, waren die Bomben immer noch zerbrechlich. Sie wären bei der deutschen Bombardierung in Stücke gerissen worden und hätten tödlichen Senf in die Atmosphäre und das ölige Hafenwasser freigesetzt.

Alexander konnte es kaum glauben, dass britische Beamte zum ersten Mal von den chemischen Waffen erfuhren. Die Umstände des Unfalls müssten weiter untersucht werden, ebenso wie das Ausmaß, in dem die Militärbehörden das ausgetretene Gas vertuscht hatten. Indem sie das Krankenhauspersonal nicht auf das Risiko einer Ansteckung aufmerksam machten, hatten sie die Zahl der Todesfälle erheblich erhöht. In diesem Moment hatten jedoch Alexanders Patienten Vorrang. Nachdem sich sein Verdacht bestätigt hatte, konnte er die Mitarbeiter der alliierten Krankenhäuser über die richtige Behandlung von Senfexpositionen beraten und versuchen, die Zahl der Todesfälle zu reduzieren.

Anstatt die Sache jedoch zum Abschluss zu bringen, hatte Alexanders Entdeckung, dass Senfgas aus dem eigenen Vorrat der Alliierten stammte, eine schwierige Aufgabe noch viel komplizierter gemacht. Die Versuche der britischen Hafenbeamten, sie zu verschleiern, waren verärgert, aber das verblasste im Vergleich zu ihren Bemühungen, die Verantwortung auf die Luftwaffe zu verlagern. Es war keine harmlose Erfindung. Alexander schauderte, wenn er an die „gravierenden politischen Implikationen“ dachte. Später erinnerte er sich daran, gedacht zu haben: „Wenn sie die Deutschen beschuldigen würden, Senf fallen zu lassen, während die Deutschen es nicht getan haben. ”

Anfang des Jahres hatte Präsident Roosevelt eine ernste Warnung ausgesprochen, dass auf jeden Einsatz chemischer Waffen durch die Achsenmächte die „vollstmögliche Vergeltung“ folgen würde. Die Bedeutung von „jedem Fehler bei der Interpretation des Faktors und der Quelle von Senfgas in Bari“, erinnerte sich Alexander, „war entsetzlich“. Wenn die alliierten Führer zu dem falschen Schluss kamen, dass der Feind Chemiewaffen eingesetzt hatte, könnte dies eine weit verbreitete chemische Kriegsführung auslösen.

Zusätzlich zu seiner Besorgnis stieg die tägliche Zahl der Todesopfer durch Senfkontamination, die zu sinken begann, plötzlich an, was die sekundären Auswirkungen einer Lungenentzündung auf Patienten demonstrierte, die bereits durch chemische Belastungen geschwächt waren. Es schien keine Möglichkeit zu geben, vorherzusagen, wie viele Männer noch sterben würden.

Neun Tage nach der Bombardierung übergab Alexander seine ersten Erkenntnisse dem AFHQ in Algier. „Die Verbrennungen in den Krankenhäusern in dieser Gegend mit der Aufschrift ‚Dermatitis N.Y.D.‘ sind auf Senfgas zurückzuführen“, behauptete er. „Es sind ungewöhnliche Arten und Sorten, weil die meisten von Senf stammen, der im Hafen in das Oberflächenöl gemischt wurde.“

Ein Überlebender des Bari-Angriffs. Weit verbreitete Kontaminationssymptome ließen Stewart Alexander schnell darauf schließen, dass sich Giftgas in das Hafenwasser eingemischt hatte. (Stewart F. Alexander Papiere)

Alexander verspürte die wachsende Dringlichkeit, dass seine Diagnose auf höchster Ebene anerkannt wurde. Einige britische medizinische Fachkräfte schienen auf einen offiziellen Genehmigungsstempel zu warten, bevor sie seine Behandlungsstrategien umsetzten. Noch wichtiger ist, dass die Herkunft des Senfs nicht missverstanden werden kann. Er schickte sowohl an den amerikanischen Präsidenten als auch an den britischen Premierminister Telegramme mit hoher Priorität und informierte sie über die Art der Opfer in Bari und die fast sichere Herkunft des Gases auf einem Schiff der American Liberty. Roosevelt schien seine Ergebnisse zu akzeptieren und antwortete: "Bitte halten Sie mich vollständig auf dem Laufenden."

Churchill gab jedoch eine knappe Antwort: Er glaube nicht, dass es in Bari Senfgas gebe.

Alexander war sprachlos. Er bewunderte Churchill und spekulierte, dass die vorherrschende Sorge des britischen Führers darin bestand, dass die Alliierten „nicht anerkennen, dass wir in diesem Einsatzgebiet Giftgas hatten, denn wenn die Deutschen sich rächen würden, würden sie Giftgas über England abwerfen“. Es gab keinen Zweifel an der Weisheit dieser Befehlsentscheidung, aber Churchills Widerstand untergrub Alexanders Glaubwürdigkeit und Fähigkeit, seinen Job zu machen.

Alexander schickte ein zweites Telegramm. Er zitierte seine Ergebnisse viel ausführlicher und stellte "ohne jeden Zweifel" fest, dass diese Opfer auf Senfexposition zurückzuführen waren. Ihm wurde mitgeteilt, dass Churchill behauptete, dass „die Symptome nicht nach Senfgas klingen“, was Churchill während des Ersten Weltkriegs aus erster Hand miterlebt hatte. Seine Anweisungen waren die gleichen: „Der Arzt sollte seine Patienten erneut untersuchen.“

Verblüfft und unsicher, wie ein „niedriger, einsamer amerikanischer Arzt“ reagieren sollte, bat Alexander den Verbindungsoffizier um Rat. Der Mann riet ihm: Mit dem Ministerpräsidenten habe man sich nicht gestritten.

Nach einer schlaflosen Nacht kehrte Alexander früh ins Krankenhaus zurück, um zu beweisen, dass seine Diagnose nicht falsch war. Churchill war ein brillanter Mann mit einem unheimlichen Instinkt für die herausragende Tatsache, und er hatte die wichtigste Frage zu den Bari-Opfern auf den Punkt gebracht: Warum waren die toxischen Auswirkungen so viel schwerwiegender als alle anderen, die in der Militärgeschichte aufgezeichnet wurden? In Bari starben weit mehr Patienten an Senfsymptomen als auf den Schlachtfeldern des Ersten Weltkriegs, als die Sterblichkeitsrate bei etwa 2 Prozent lag. Die Sterblichkeitsrate in Bari war mehr als sechsmal höher – und kletterte.

Der Unterschied, so glaubte er, war die Senfmenge, die durch den beispiellosen, intimen und langen Kontakt durch die Haut absorbiert wurde, als Ergebnis des Eintauchens in das ölige Hafenwasser und dann das Sitzen in durchnässten Uniformen. „In dieser Gruppe von Fällen“, postulierte Alexander, „wurden die Individuen in jeder Hinsicht in eine Lösung von Senf in Öl getaucht und dann in Decken gewickelt, mit warmem Tee versorgt und eine längere Zeit zur Absorption zugelassen.“ .“

Alexanders medizinische Untersuchung über die Auswirkungen von Senf auf die Opfer begann gerade erst. Als er da saß und die Krankenblätter und Pathologieberichte durchsah, sprang ihm eine wiederkehrende Beobachtung auf: die verheerenden Auswirkungen auf die weißen Blutkörperchen der Patienten. Er blätterte einen Stapel Platten durch. Da war es immer wieder – die Zahl der weißen Blutkörperchen fiel stark ab. Bei Patienten, die sich erholten, korrigierten sich die Konzentrationen der weißen Blutkörperchen am zweiten oder dritten Tag, aber in einigen Fällen sank die Anzahl der weißen Blutkörperchen ab dem dritten oder vierten Tag steil ab. Er stellte fest, dass Lymphozyten, die weißen Blutkörperchen, die in den Lymphorganen vorkommen und für das Immunsystem wichtig sind, „die ersten waren, die verschwanden“. Was er sah, ließ die Haare in seinem Nacken zu Berge stehen. Alexander hatte diese genauen Ergebnisse schon einmal gesehen, aber noch nie bei Menschen.

Im März 1942 übergaben die Behörden von Edgewood, nachdem sie die aus Deutschland geschmuggelten Stickstoffsenfverbindungen erhalten hatten, die Proben an Alexander, um ihre Auswirkungen auf den Körper zu untersuchen. Alexander und seine Kollegen begannen sofort mit detaillierten Versuchsprotokollen an Tieren. Die ersten Studien, die die Auswirkungen einer Exposition auf Haut, Augen und Atemwege von Kaninchen erfassten, zeigten Ergebnisse, die vollständig mit der Exposition gegenüber Senfschwefel in der Vergangenheit und den Erwartungen eines solchen hochgiftigen Mittels übereinstimmten.

Als nächstes stellten sie ein Experiment auf, um die Auswirkungen auf das Blut und die blutbildenden Organe zu bestimmen. Zwanzig gesunde Kaninchen wurden tödlichen Dosen des Mittels ausgesetzt. Zum Erstaunen des Forschungsteams sank die Zahl der weißen Blutkörperchen der Kaninchen auf Null oder liegt sehr nahe bei Null. Niemand im Labor hatte jemals eine so schnelle Zerstörung der weißen Blutkörperchen und die damit einhergehende Verschlechterung von Lymphknoten und Knochenmark gesehen. Die Forscher konsultierten die Literatur und fanden keine Berichte über die gleiche Art von Reduktion der weißen Blutkörperchen im Blut, bekannt als Leukopenie, oder irgendetwas, das die gleiche Wirkung hatte. Alexanders erster Gedanke war, dass sie eine "schlechte Charge Kaninchen" haben müssen. Aber als sie das Experiment mit einer neuen Gruppe wiederholten, waren die Ergebnisse die gleichen.

Die erste Chemotherapie auf Basis von Stickstoffsenf wurde 1949 zugelassen. Mehrere Chemotherapeutika, die auf Alexanders Forschungen basieren, sind heute noch weit verbreitet. (Richard Lautens / Toronto Star über Getty Images)

Alexander ordnete an, die Tests mit anderen Labortieren zu wiederholen, um die Möglichkeit einer schlechten Tier- oder Artenempfindlichkeit auszuschließen. Sie probierten es mit Meerschweinchen, Ratten, Mäusen und Ziegen. Jedes Mal erzielten sie die gleichen dramatischen Wirkungen: plötzliche, schwere Leukopenie, schwere Lymphopenie, Lymphknotendepletion und Markdepression. Nach der Exposition verschwand die Zahl der weißen Blutkörperchen schnell und die Lymphknoten waren fast vollständig aufgelöst und blieben als „geschrumpfte kleine Hüllen“ von dem, was sie einmal waren.

Noch in Edgewood war Alexander von der Idee fasziniert, dass Senf den körpereigenen Mechanismus zur Produktion von Blutkörperchen, insbesondere weißen Blutkörperchen, störte. Wegen der dramatischen und reproduzierbaren Wirkungen musste er sich über die Möglichkeit wundern, die Verbindungen direkt oder in modifizierter Form bei Menschen mit Blutkrankheiten anzuwenden. Wenn Stickstoffsenf weiße Blutkörperchen angreift, könnte es vielleicht verwendet werden, um Leukämie, die häufigste Krebsart bei Kindern, mit ihrem ungebremsten Wachstum der weißen Blutkörperchen zu kontrollieren, indem verschiedene Dosierungen verwendet werden, um einige, aber nicht alle überschüssigen Zellen zu zerstören, ohne die Patienten zu vernichten. Aber als Alexander eine ehrgeizige Reihe von Experimenten zu den medizinischen Eigenschaften von Senf vorschlug, wurde ihm zuerst von seinem Chef und dann vom National Research Council mitgeteilt, dass dies nicht die Aufgabe des Edgewood-Labors sei. Es gab nicht genug Zeit oder Geld, um Nebenuntersuchungen zu verfolgen, die die Landesverteidigung nicht erleichterten. Ihm wurde befohlen, das Projekt beiseite zu legen und seine Arbeit an Senf-Unfallmanagement, Behandlung und Dekontamination wieder aufzunehmen. Die Jagd auf Wundermittel musste bis nach dem Krieg warten.

Jetzt, nicht einmal zwei Jahre später, in einem 6.000 Meilen entfernten Militärkrankenhaus der Alliierten, hielt Alexander unwiderlegbare Beweise in den Händen: „Senfgas zerstörte in Wahrheit selektiv Blutzellen und blutbildende Organe“, schrieb er. Ärzte und medizinische Forscher waren noch nie zuvor auf eine so außergewöhnliche Schwefel-Senf-Toxizität gestoßen, die, wenn sie mit dem im Hafen von Bari verladenen Öl vermischt wurde, dem Schaden der experimentellen Stickstoff-Senf-Verbindungen nahe kam – und ihre systemischen Wirkungen deutlich sichtbar machte zum ersten Mal. Es bedurfte eines ungewöhnlichen Unfalls und der massiven Expositionen in Kriegszeiten, um das bei Laborkaninchen nachgewiesene Phänomen bei Menschen zu bestätigen. „Alles führte zu den gleichen Bedingungen, die ich in meiner Tierarbeit vor dem Krieg gesehen hatte“, erinnerte sich Alexander später. "Blutzellen sind verschwunden und Lymphknoten sind einfach weggeschmolzen." Er erinnerte sich daran, gedacht zu haben: „Wenn Stickstoffsenf dies tun könnte, was könnte es für eine Person mit Leukämie oder Lymphosarkom tun?“

Alexander konnte die schlimmsten Opfer des Senfgases in Bari nicht retten, das wusste er, aber vielleicht konnte er dafür sorgen, dass ihr Tod etwas zählte. Eine Chance von eins zu einer Million hatte ihn, einen der wenigen Ärzte der Welt, die das heilende Potenzial von Senf untersucht hatten, mitten in eine Katastrophe mit einer Leichenhalle voller Fallstudien gebracht. Es war eine undenkbar seltene Gelegenheit, eine bahnbrechende Untersuchung der biologischen Auswirkungen des Toxins auf den menschlichen Körper durchzuführen – eine Art, die mit lebenden Freiwilligen unmöglich wäre.

Er rannte den Flur entlang und rief nach weiteren Bluttests. Er sorgte dafür, dass die Proben mit besonderer Sorgfalt vorbereitet wurden, um sie zur mikroskopischen Untersuchung an Edgewood zu senden, und improvisierte eine Fixierlösung, in der Hoffnung, dass die Gewebeproben der langen Reise standhalten würden. Die hämatologische Analyse wäre nicht so vollständig, wie er es gerne hätte. Die schwere Belastung der alliierten Kampfkrankenhäuser und die begrenzten Einrichtungen würden sie daran hindern, wichtige Tests durchzuführen, einschließlich Untersuchungen von Knochenmark und Blutchemie. Alexander würde gewissenhaft sein müssen, um so viele Daten wie möglich zu sammeln und Labortechniker zu bedrängen, das zu tun, was er für notwendig hielt. Diesmal wollte er unbedingt sicherstellen, dass seine Einsicht in die systemische Wirkung von Senf in die Krankenakte einfließt, um zu sehen, ob die Substanz nicht zur Zerstörung, sondern zur Heilung eingesetzt werden kann.

Am 27. Dezember 1943 legte Lt. Col. Stewart Alexander seinen vorläufigen Bericht über seine zehntägige Untersuchung der Katastrophe im Hafen von Bari vor. Es wurde sofort klassifiziert. Eisenhower und Churchill handelten gemeinsam, um die Ergebnisse geheim zu halten, damit Hitler den Vorfall nicht als Vorwand für eine Gasoffensive nutzen konnte. Jede Erwähnung von Senfgas wurde aus der offiziellen Akte gestrichen, und das medizinische Personal der britischen Krankenhäuser in Bari wurde angewiesen, die Patientenakten zu ändern. Alexanders Diagnose einer toxischen Exposition wurde gestrichen und durch die allgemeine Terminologie für Gefechtsopfer ersetzt – Verbrennungen, Lungenkomplikationen, alle anderen Verletzungen und Todesfälle „aufgrund feindlicher Aktionen“.

Der befürchtete deutsche Chemieangriff kam nie. Die Wehrmacht wurde durch logistische Zwänge, verbunden mit der alliierten Luftüberlegenheit und der Gefahr massiver Vergeltungsschläge abgeschreckt. Ironischerweise wussten die Deutschen die ganze Zeit über die Quelle des Giftgases im Hafen. Nazi-Spione im Hafen hatten vermutet, dass die Alliierten Senfbomben unter der Munition, die sie in Italien lagerten, versteckten. Nach dem Luftangriff schickten sie ihren eigenen Taucher, einen den Faschisten treu ergebenen italienischen Froschmann, der ein Fragment eines M47-Bombengehäuses fand, das bestätigte, dass es sich um amerikanische Chemiewaffen handelte.

Britische Beamte haben Alexanders Bari-Bericht nie anerkannt, aber er wurde von Eisenhowers leitenden medizinischen Beratern hoch gelobt. Sie lobten die außergewöhnliche Arbeit, die Alexander unter schwierigen Bedingungen geleistet hatte, teilten ihm jedoch mit, dass eine Belobigung aus Angst vor einer „Beleidigung des Premierministers“ zurückgehalten wurde. Nichtsdestotrotz begrüßte Col. Cornelius P. „Dusty“ Rhoads, Chef der medizinischen Abteilung des Chemical Warfare Service, Alexanders akribische Untersuchung als so vollständig und von so großem Wert für die Medizin, dass sie fast „einen Meilenstein in der Geschichte der Senfvergiftung."

Rhoads war bestrebt, das therapeutische Potenzial des toxischen Wirkstoffs zu erforschen. Wie Alexander glaubte er, dass die Bari-Daten den Weg zu einer vielversprechenden neuen Chemikalie weisen, die auf weiße Blutkörperchen abzielt und als Waffe im Kampf gegen Krebs eingesetzt werden könnte. Rhoads, der im Zivilleben Leiter des New Yorker Memorial Hospital for the Treatment of Cancer and Allied Diseases war, nutzte die Fülle neuer Informationen der Bari-Opfer als Durchbruch. Seine ehrgeizigen Pläne für das Memorial Hospital konvergierten nun mit Alexanders Bericht und kristallisierten sich in einer einzigen Mission heraus – die militärische Forschung zu Giftgas auszunutzen, um eine Chemikalie zu finden, die Krebszellen selektiv töten könnte.

Cornelius „Dusty“ Rhoads, Zentrum, ehemaliger medizinischer Leiter des Chemical Warfare Service und Direktor des Sloan-Kettering-Instituts für Krebsforschung. (Mit freundlicher Genehmigung des Memorial Sloan Kettering Cancer Center)

Ausgestattet mit dem Bari-Bericht und den Ergebnissen einer streng geheimen Studie der Yale University, die zum ersten Mal zeigte, dass eine Verabreichung von intravenösem Stickstoffsenf – in winzigen, sorgfältig kalibrierten Dosen – zu einer Rückbildung des menschlichen Tumors führen könnte, machte sich Rhoads auf die Suche nach Finanzierung der Entwicklung dieser experimentellen Behandlung, die heute als Chemotherapie bekannt ist. Er überredete Alfred P. Sloan Jr., den Vorsitzenden von General Motors, zusammen mit dem Zauberingenieur des Unternehmens, Charles F. Kettering, ein neues Institut zu gründen, das führende Wissenschaftler und Ärzte zusammenbringen sollte, um einen konzentrierten Angriff auf Krebs zu unternehmen. Am Dienstag, dem 7. August 1945, dem Tag, an dem die Welt vom Abwurf einer Atombombe auf Japan erfuhr, gaben sie ihre Pläne für das Sloan-Kettering-Institut für Krebsforschung bekannt. Der Zweite Weltkrieg war vorbei, aber der Krieg gegen den Krebs hatte gerade erst begonnen.

Die Amtsgeheimnis um die Katastrophe von Bari dauerte Jahrzehnte. Das Militär weigerte sich, die chronischen Auswirkungen der Senfexposition auf Hunderte von überlebenden Matrosen, Marinepersonal und Zivilisten anzuerkennen, was zu jahrelangem Leiden, Kontroversen und Klagen auf medizinische Entschädigung sowohl in den Vereinigten Staaten als auch in Großbritannien führte. 1961 meldete sich Alexander freiwillig, um der National Academy of Sciences bei der Durchführung einer Studie über die amerikanischen Überlebenden zu helfen, aber das Projekt kam ins Stocken, als sich die Identifizierung von Kontaminationsopfern als zu schwierig erwies. „In allen Aufzeichnungen stand ‚Verbrennungen durch feindliche Aktionen‘“, erinnert sich Alexander.

Alexander wurde im Juni 1945 aus dem Chemical Warfare Service entlassen und kehrte mit einer Kiste voller Orden und Kampfbändern sowie einer neuen Braut, Oberstleutnant Bernice „Bunny“ Wilbur, der ranghöchsten Armeekrankenschwester der USA, nach Hause zurück Mediterranes Theater. Er lehnte Rhoads' Angebot ab, am noch jungen Sloan Kettering Institute zu arbeiten. Stattdessen hielt er sein Versprechen an seinen Vater, die Familienpraxis in Park Ridge, New Jersey, fortzusetzen, wo er ein sehr beliebter Arzt und Kardiologe wurde und wo er mit Bunny zwei Töchter großzog. Er war 18 Jahre lang Direktor des Bergen Pines County Hospital und lehrte an den medizinischen Fakultäten der Columbia und der New York University. Er prahlte nie mit seinen Heldentaten in Kriegszeiten, aber er war immer stolz auf seinen einzigartigen Beitrag zur Medizin und es machte ihm nichts aus, dass, während viele Lehrbücher das moderne Zeitalter der Chemotherapie schließlich auf die Katastrophe von Bari zurückführten, die Details seiner Untersuchung geheim blieben . Er starb am 6. Dezember 1991 an einem malignen Melanom - Hautkrebs -, aber nicht bevor die US-Armee ihn drei Jahre zuvor verspätet für seine Handlungen während der Bari-Episode lobte. „Ohne seine frühzeitige Diagnose und die rasche Einleitung einer angemessenen und aggressiven Behandlung wären viele weitere Menschenleben gestorben und die Schwere der Verletzungen viel größer gewesen“, heißt es in der Belobigung. "Sein Dienst an den während dieser Katastrophe verletzten Militärs und Zivilisten spiegelt das beste Maß eines Soldaten und Arztes wider."

Angepasst von Das große Geheimnis: Die klassifizierte Katastrophe des Zweiten Weltkriegs, die den Krieg gegen den Krebs auslöste , von Jennet Conant. Copyright © 2020 by Jennet Conant. Verwendung mit Genehmigung von W. W. Norton & Company, Inc.


Gründe für den Krieg erfinden

Es musste einen Vorwand geben, um einen Krieg zu beginnen, einen Mantel, um die nackte britische Aggression zu verbergen. Sihayo kaXongo, ein Zulu-Grenzchef, hatte das Unglück, ehebrecherische Frauen zu haben, und seine häuslichen Schwierigkeiten lieferten Frere eine Entschuldigung für den Krieg. Zwei der Frauen flohen mit ihren Geliebten nach Natal, aber die britische Kolonie erwies sich nicht als Zufluchtsort. Mehokazulu, einer von Sihayos Söhnen, überquerte mit einer Gruppe die Grenze, spürte die Flüchtlinge auf und schleppte sie zur Hinrichtung zurück. Es hieß, die ehebrecherischen Ehefrauen seien zu Tode geprügelt worden.

Der Vorfall gab Frere zwei „Gründe“ für den Krieg. Erstens hatte Mehokazulu die Grenze verletzt und Natal mit einer Streitmacht von unbestimmter Größe „eingefallen“. Die Frauen waren ohne Gerichtsverfahren oder ordentliches Verfahren getötet worden, eine weitere „Verletzung“ britischer – wenn auch nicht zulu – moralischer Prinzipien. Im Laufe der Jahre hatten sich europäische Missionare in Zululand über Cetshwayos Herrschaft beschwert und ihn im Allgemeinen als blutrünstigen Tyrannen angeprangert, der seine Opfer willkürlich tötete. Diese Geschichten spielten Frere natürlich in die Hände.

Im Herbst 1878 wurden Freres Aussagen immer schriller und empörender. Er sprach düster über Cetshwayos „treulosen und grausamen Charakter“ und „abscheuliche Barbarei“, obwohl er den König nie getroffen hatte und die meisten Geschichten vom Hörensagen waren. In Wahrheit wollte Cetshwayo Frieden mit den Briten. Er wusste, dass sich das Reich von Königin Victoria, das Reich der „Großen Weißen Königin“, um den Globus erstreckte. Viele der Missverständnisse rührten von kulturellen und nicht von politischen Unterschieden her. Der König exekutierte zwar gelegentlich Menschen, aber solche „Barbareien“ lagen durchaus innerhalb der Normen der Zulu-Gesellschaft.


Beiträge von NGOs zur Gemeindegesundheit und primären Gesundheitsversorgung: Fallstudien zu BRAC (Bangladesch) und dem Comprehensive Rural Health Project, Jamkhed (Indien)

Nichtregierungsorganisationen (NGOs), die in Entwicklungsländern tätig sind, sind hauptsächlich ein Phänomen der Nachkriegszeit. Obwohl sie wichtige Beiträge zur Gesundheit und Entwicklung von verarmten Menschen auf der ganzen Welt geleistet haben, ist die Dokumentation dieser Beiträge begrenzt. Obwohl BRAC und das Jamkhed Comprehensive Rural Health Project (CRHP) nur zwei von 9,7 Millionen weltweit registrierten NGOs sind, sind sie einzigartig. BRAC wurde 1972 in Bangladesch gegründet und ist heute die größte NGO der Welt in Bezug auf die betreute Bevölkerung – heute erreicht sie 130 Millionen Menschen in 11 verschiedenen Ländern. Seine Programme sind sektorübergreifend, konzentrieren sich jedoch auf die Stärkung von Frauen und die Verbesserung der Gesundheit von Müttern und Kindern. Durch sein einzigartiges System der Einkommensgenerierung durch seine eigenen Sozialunternehmen ist BRAC in der Lage, 85 % seines 1-Milliarden-Dollar-Budgets aus selbst generierten Mitteln zu decken. Dieser innovative Finanzierungsansatz hat es BRAC ermöglicht, zu wachsen und dieses Wachstum aufrechtzuerhalten, da auch seine Sozialunternehmen erfolgreich waren. Das 1970 gegründete Jamkhed CRHP mit Sitz im indischen Bundesstaat Maharashtra zeichnet sich durch seinen bemerkenswerten nationalen und globalen Einfluss aus. Es ist eines der ersten Beispiele weltweit, wie Gemeinschaften befähigt werden, ihre Gesundheitsprobleme und die sozialen Determinanten dieser Probleme anzugehen, teilweise durch die Ausbildung von Analphabeten, die als Gemeindegesundheitshelferinnen dienen. Das Jamkhed CRHP hatte einen großen Einfluss auf die Vision der primären Gesundheitsversorgung, die 1978 auf der Internationalen Konferenz über primäre Gesundheitsversorgung in Alma-Ata, Kasachstan, entstand. Sein Institut für Ausbildung und Forschung in kommunaler Gesundheit und Bevölkerung hat 45.000 Menschen aus 100 verschiedenen Ländern Vor-Ort-Schulungen in kommunaler Gesundheit angeboten. Das von den Gründern geschriebene Buch mit dem Titel Jamkhed: Ein umfassendes ländliches Gesundheitsprojekt, das seinen bahnbrechenden Ansatz beschreibt, wurde in fünf Sprachen außer Englisch übersetzt und ist eines der meistgelesenen Bücher über globale Gesundheit. Diese beiden beispielhaften NGOs geben einen Einblick in die Breite und Tiefe der NGO-Beiträge zur Verbesserung der Gesundheit und des Wohlbefindens verarmter Menschen auf der ganzen Welt.

Schlüsselwörter

Themen

Einführung

Seit den 1990er Jahren sind in der menschlichen Entwicklung beispiellose Fortschritte zu verzeichnen. Von einigen bedauerlichen Ausnahmen abgesehen, haben die meisten Nationen und Bevölkerungsgruppen weltweit solche Fortschritte gemacht, einschließlich der Länder mit niedrigem Einkommen. Die Millenniumsentwicklungsziele (MDGs) waren der erste Ausdruck der Entschlossenheit der Staatengemeinschaft, das Interesse zu wecken und Ressourcen für eine Auswahl von Entwicklungszielen für jedes Land bereitzustellen. Bis 2015 war die MDG-Bewegung ein enormer Erfolg. Für die meisten Länder der Welt wurde eine große Verbesserung verzeichnet. Laut einem Bericht der Vereinten Nationen:

Bemerkenswerte Fortschritte wurden bei der Verringerung der extremen Armut, der Verbesserung des Zugangs zu Grundschulbildung in den Entwicklungsregionen, der Sicherstellung der Geschlechterparität in den Schulen, der Verbesserung der Gesundheits- und Krankheitsergebnisse und des Zugangs zu besseren Wasserquellen erzielt.

Dieser Fortschritt war möglich, weil verschiedene Interessengruppen entschlossen waren, die gewünschten Ergebnisse zu erzielen. Zu diesen Interessengruppen gehörten Regierungen, Zivilgesellschaft, Entwicklungspartner, UN-Organisationen, Nichtregierungsorganisationen (NGOs), Wissenschaft, Medien und vor allem die Menschen selbst. NGOs haben auf diesem Weg eine wichtige Rolle gespielt, und in einigen Ländern war ihre Rolle außergewöhnlich. Dieser Artikel analysiert die Beiträge der NGOs unter besonderer Berücksichtigung der kommunalen Gesundheit und der primären Gesundheitsversorgung. Ausgehend von einer kurzen Geschichte des NGO-Engagements in der Entwicklungsarbeit diskutiert der Artikel die vielfältigen Rollen, die sie spielen. Er erörtert die Quellen der Stärke von NGOs, ihre „Liebe/Hass“-Beziehungen zu Regierungen und die Zwänge, denen NGOs bei der Erfüllung ihrer Mission häufig ausgesetzt sind.

In diesem Artikel geben wir zunächst einen kurzen Überblick über NGOs in den Bereichen Entwicklung und Gesundheit. Anschließend geben wir einen Überblick über die Arbeit von NGOs in Bangladesch und ihren Beitrag zur nationalen Gesundheit und Entwicklung, gefolgt von einem Überblick über die NGO BRAC mit Schwerpunkt auf ihren gesundheitsbezogenen Programmen. NGOs in Bangladesch sind für ihre effektive und nachhaltige Arbeit bekannt, und wir heben das Beispiel von BRAC hervor, Bangladeschs größter und berühmtester NGO. Schließlich geben wir einen Überblick über eine der weltweit wegweisendsten und einflussreichsten NGOs im Bereich kommunale Gesundheit und primäre Gesundheitsversorgung – das Comprehensive Rural Health Project (CRHP), Jamkhed, im ländlichen Maharashtra, Indien.

Dieser Artikel ist kein umfassender Überblick über NGOs weltweit. Eine solche Aufgabe wäre enorm und würde den Rahmen der Möglichkeiten der Autoren sprengen. Seit Beginn der MDG-Ära wird der Entwicklung in Afrika viel Aufmerksamkeit geschenkt, wo NGOs eine immer wichtigere Rolle spielen. Leider wurde dieses Thema in diesem Artikel nicht behandelt. Der Artikel leidet auch unter seiner Betonung zweier NGOs – von denen die eine zur größten NGO der Welt geworden ist und die andere heute eine der ältesten und einflussreichsten ist. Dies liegt vor allem daran, dass die Autoren sie aus erster Hand kennen. Es wird anerkannt, dass es viele andere NGOs in Südasien und anderswo – große und kleine – gibt, die sehr effektiv sind. Das Ziel hier ist es, BRAC und CRHP Jamkhed als bemerkenswerte Beispiele dafür zu präsentieren, was die breitere NGO-Gemeinschaft zu Entwicklung und Gesundheit beigetragen hat, mit besonderem Fokus auf die Stärkung der Gemeinschaft, die Gesundheit der Gemeinschaft und die medizinische Grundversorgung.

Ein historischer Überblick über NGOs im Bereich Entwicklung und Gesundheit

„Wenn jemand einen Bedarf erkennt, wird wahrscheinlich eine NGO folgen.“

Fuchs (1987)

Was versteht man unter NGOs? Sie wurden auf verschiedene Weise definiert. Laut Edwards und Hulme (1996) sind NGOs „Vermittlerorganisationen, die Gemeinschaften und andere Organisationen, die die Entwicklung fördern wollen, finanzieren oder andere Formen der Unterstützung anbieten“. Die Weltbank definiert NGOs als „private Organisationen, die Aktivitäten zur Linderung von Leiden, zur Förderung der Interessen der Armen, zum Schutz der Umwelt, zur Bereitstellung grundlegender sozialer Dienste oder zur Entwicklung der Gemeinschaft“ (Delisle, Roberts, Munro, Jones & Gyorkos, 2005). Wikipedia hat NGOs wie folgt definiert:

[NGOs] sind in der Regel gemeinnützige und manchmal internationale Organisationen, die von Regierungen und internationalen Regierungsorganisationen unabhängig sind (obwohl oft von Regierungen finanziert), die in den Bereichen humanitäre Hilfe, Bildung, Gesundheitswesen, öffentliche Ordnung, Soziales, Menschenrechte, Umwelt und andere Bereiche tätig sind Änderungen entsprechend ihren Zielen vorzunehmen. . . Manchmal wird der Begriff als Synonym für „Organisation der Zivilgesellschaft“ verwendet, um sich auf eine von Bürgern gegründete Vereinigung zu beziehen.

Internationale NGOs, die sich für die globale Entwicklung einsetzen, sind hauptsächlich ein Phänomen der Nachkriegszeit. NGOs, die vor dem Zweiten Weltkrieg aktiv waren, waren meist christliche Missionsorganisationen wie die Heilsarmee oder die Katholischen Hilfsdienste (Fox, 1987). Unmittelbar nach dem Zweiten Weltkrieg entstand eine neue Generation von NGOs, die säkularer Natur waren und zunächst im kriegszerrütteten Europa und später in einkommensschwachen Ländern Hilfe leisteten. CARE (ursprünglich Committee for American Relief Everywhere) zum Beispiel begann als Basisprogramm, um nach dem Zweiten Weltkrieg Lebensmittelpakete an verarmte Europäer zu schicken. Obwohl die NGO-Bewegung in den Ländern mit hohem Einkommen begann, ist ihre aktive Präsenz heute in den meisten Ländern der Welt zu sehen und zu spüren, insbesondere in Ländern mit niedrigem Einkommen. Auch Länder, die kommunistischen Ideologien folgen, wie China und Vietnam, sind davon nicht ausgenommen. Seit Anfang des laufenden Jahrhunderts haben NGOs, die im Süden (dh den Entwicklungsländern unterhalb des Äquators) geboren wurden, begonnen, ihre Fußabdrücke auf andere südliche Länder auszudehnen und ihre erfolgreichen Erfahrungen zu wiederholen. BRAC ist, wie wir noch besprechen werden, eine solche NGO.

Als die Regierungen im Norden begannen, die Grenzen der UN-Organisationen und der Regierungen des Südens (und insbesondere der neuen unabhängigen Länder) anzuerkennen, begannen die Regierungen des Nordens, ihre Entwicklungshilfe über NGOs zu lenken. Diese Regierungen im Norden und ihre Bürger wandten sich „aus pragmatischen Erwägungen an NGOs, da sie sie als effizientere Kanäle für Entwicklungsleistungen betrachteten als die oft diskreditierten offiziellen Stellen“ (Masoni, 1985). In den letzten Jahrzehnten wurden immer mehr NGOs von Bürgern in Ländern mit niedrigem Einkommen gegründet, um unerfüllte lokale Bedürfnisse zu befriedigen. Diese werden jetzt als nationale NGOs bezeichnet. Armut, Katastrophen, Krieg und anderes Unglück boten NGOs Gründe und Gründe, in Ländern mit niedrigem Einkommen zu gedeihen. Wie Fox (1987) sagte: „Wenn jemand ein Bedürfnis wahrnimmt, wird wahrscheinlich eine NGO folgen.“

Im Jahr 2002 gab es nach Angaben der Vereinten Nationen (UNDP, 2002) 37.000 NGOs weltweit. Nach neueren Schätzungen sind mittlerweile 9,7 Millionen NGOs in 196 Ländern registriert (Quora, 2018). Die meisten in Entwicklungsländern tätigen NGOs haben ihre Stützpunkte in ländlichen Gebieten und städtischen Elendsvierteln/Slums, die von der bestehenden staatlichen Dienstleistungsstruktur oft gar nicht oder nur minimal bedient werden. Aufgrund ihrer Wurzeln an der Basis verstehen NGOs die Probleme der Entwicklung klarer als andere Organisationen. Wie Drabek (1987) sagte, „haben die Entwicklungsversagen der Vergangenheit gezeigt, dass es nicht ausreicht, Geld in die Bekämpfung der Armutssymptome zu investieren – es sind die zugrunde liegenden Probleme der Armut, die Maßnahmen erfordern.“ Als solche sind NGOs an fast allem beteiligt, von dem bekannt ist, dass es Armut verursacht – fehlender Zugang zu Gesundheitsversorgung, mangelnde Bildung, Unterernährung, Mangel an menschenwürdigen Arbeitsplätzen, geschlechtsspezifische Diskriminierung und Entmachtung von Frauen, Ausschluss der Armen vom Zugang zu fairen Märkten Transaktionen und das Fehlen von Institutionen, die das Gemeinwohl fördern. NGOs begannen in den 1980er Jahren aufgrund der schweren Armut und unerfüllten Bedürfnisse armer Menschen auf der ganzen Welt und auch wegen der Dysfunktion sowie des mangelnden Engagements der Regierung und anderer Teile der Gesellschaft bei der Bewältigung dieser Bedürfnisse (Abed & Chowdhury, 1989). Eine solche Pattsituation forderte „Mittel, um den Armen direkter und billiger Leistungen zu verschaffen, als die Regierungen allein erreichen konnten“ (Korten, 1987).

Im Gesundheitssektor beispielsweise gelten NGOs als erfolgreich, wirksame Programme dort umzusetzen, wo Regierungen versagt haben. Wieso den? Laut Chatterjee (1988) sind „Flexibilität und Dynamik, engagierte Führung, Professionalität, intensives Management und Partizipation der Menschen“ einige der Gründe. Ein Regierungsvertreter würdigte die Beiträge von NGOs in Pakistan und erklärte, dass „Gesundheitsförderung und Gesundheitserziehung ihre Kunst sind, weil sie durch ihre Arbeit in der Gesellschaft verwurzelt sind und weil sie ein besseres Verhältnis und Vertrauen in die Gemeinschaft genießen“ (Ejaz , Shaikh &. Rizvi, 2011).

NGOs spielen eine zunehmend einflussreiche Rolle in der globalen Politikgestaltung. In einem im Namen von NGOs für die International Conference on Primary Health Care in Alma-Ata erstellten Positionspapier befürwortete der Weltverband der Public Health Associations (WFPHA) das Konzept der primären Gesundheitsversorgung, wie es bereits 1978 von WHO und UNICEF ins Auge gefasst wurde, indem es betonte: die Rolle, die NGOs bei der Weiterentwicklung der Agenda der primären Gesundheitsversorgung spielen könnten. Das Papier sagte:

NGOs stellen wichtige Verbindungen zwischen Gemeinschaft und Regierung her. Sie besitzen bestimmte Stärken und Eigenschaften, die es ihnen ermöglichen, in diesem Prozess als wirksame Agenten zu fungieren. Darüber hinaus haben sie eine besondere Fähigkeit bewiesen, innerhalb der Gemeinschaft als Reaktion auf geäußerte Bedürfnisse zu arbeiten

Das Papier betonte weiterhin die Rolle der menschlichen Entwicklung und des sektorübergreifenden Engagements sowie die zentrale Bedeutung der Armutsbekämpfung für die Gesundheitsentwicklung:

[NGOs] unterstützen die Ansicht, dass die Förderung der primären Gesundheitsversorgung eng mit der Sorge um die gesamte menschliche Entwicklung verbunden sein muss. Die Gesamtheit der menschlichen Entwicklung und tatsächlich eine ganzheitliche Sicht auf Gesundheit umfasst das körperliche, geistige, soziale und spirituelle Wohlbefinden des Einzelnen

Wie groß sollte eine NGO werden? Es besteht kein Konsens über die optimale Größe einer NGO. Traditionell waren sie klein und haben mit kleinen Populationen gearbeitet. Heute arbeiten jedoch viele landesweit, wie etwa die Self Employed Women’s Association (SEWA) in Indien und die Aids Survivors Organization (TASO) in Uganda. Andere arbeiten auf multinationaler regionaler Ebene, wie die African Medical Research Foundation (AMREF) in Ostafrika. Andere arbeiten weltweit, wie BRAC, Save the Children, CARE, Oxfam und Ärzte ohne Grenzen. Befürworter kleiner NGOs argumentieren, dass eine NGO klein gehalten werden sollte, um effektiv und effizient zu bleiben, was ihnen hilft, politisch unabhängig zu sein und innovativ und kosteneffizient zu sein. Annis (1987) stellte dagegen solche Behauptungen in Frage und sagte, dass angesichts der allgegenwärtigen Armut „‚klein‘ nur bedeuten kann unbedeutend, ‚Politisch unabhängig‘ kann bedeuten stromlos oder getrennt, ‚Low cost‘ kann bedeuten unterfinanziert oder schlechte Qualität und „Innovativ“ kann einfach bedeuten vorübergehend oder nicht nachhaltig.“ Sir Fazle Hasan Abed, Gründer und Vorsitzender von BRAC, hat bekanntlich gesagt:

Klein ist schön. Groß ist notwendig

Ein Überblick über die NGO-Arbeit in Bangladesch

Bangladesch war unter den Ländern mit niedrigem und mittlerem Einkommen insofern ein „positiver Abweichler“, als seine Leistungen bei der Bekämpfung der Armut und der Verbesserung der Gesundheit im Vergleich zu seinen Mitbewerbern außergewöhnlich waren, angesichts seines stark verarmten Zustands zum Zeitpunkt der Unabhängigkeit 1971 . Bei einer Überprüfung der Beiträge von NGOs zum Entwicklungserfolg Bangladeschs gegenüber dem Staat sagte White (1999) über Bangladesch:

Aber es ist nicht der Staat, der immer noch über 85 Prozent der gesamten Überseeischen Entwicklungshilfe erhält, der für diese internationale Anerkennung verantwortlich ist. Stattdessen handelt es sich um Akteure außerhalb des Staates. . . die Programme produzieren, die weithin als zu replizierende Modelle gelobt werden.

Rahman und Khan (2017) analysierten kürzlich in einer Konferenzpräsentation die wachsende Rolle und den zunehmenden Einfluss von NGOs in Bangladesch. Sie zitierten Statistiken, die vom Büro für NGO-Angelegenheiten der Regierung veröffentlicht wurden, aus denen hervorgeht, dass es 2.533 registrierte NGOs gibt, die internationale Geberunterstützung erhalten. Davon sind 10 % (253) ausländische internationale NGOs und der Rest national. Davon ausgenommen sind Tausende anderer NGOs, die beim Sozialministerium der Regierung registriert sind und keine ausländischen Spenden erhalten und daher nicht beim NGO Affairs Bureau registriert sind. Die Autoren teilten die Arbeit von NGOs in Bangladesch in sechs verschiedene Kategorien ein:


Die 24 größten Katastrophen und Tragödien, die die Londoner U-Bahn je gesehen hat

Wie jedes Zugnetz auf der ganzen Welt wird die Londoner U-Bahn manchmal von Katastrophen und Tragödien heimgesucht.

Das U-Bahn-Netz ist ein unglaubliches Geschenk, das die meisten von uns wahrscheinlich nicht schätzen, aber es besteht kein Zweifel, wie sehr wir es brauchen, wenn es eine Milliarde Passagiere pro Jahr befördert.

Auf 300 Millionen Fahrten kommt ein tödlicher Unfall. Davon sind in fast 80 Jahren, seit der Gründung des London Passenger Transport Board, fünf Passagiere durch den Zugbetrieb gestorben.

Alle anderen Todesopfer wurden durch Bombenanschläge in Kriegszeiten und terroristische Anschläge sowie durch Stationsbrände verursacht.

1. Charing-Kreuz - 1938

Nicht nur ein, sondern zwei Unfälle ereigneten sich im selben Jahr in der Nähe des Bahnhofs Charing Cross, wo sich heute Embankment befindet. Am 10. März stürzten zwei Züge der Northern Line zwischen Waterloo und dem Bahnhof ab, bei denen 12 Personen leicht verletzt wurden. Bei dem Absturz am 17. Mai kollidierten zwei Züge der District Line und sechs Menschen kamen ums Leben.

2. Grenzen Grün - 1940

Es war im Herzen des Krieges, am 13. Oktober 1940, als eine deutsche Bombe im Bahnhof Bounds Green einschlug und 16 Menschen starben.

3. Balham - 1940

Am 14. Oktober schlug eine Bombe in die Straße über dem Bahnhof ein, die groß genug war, um in den neun Meter tiefer gelegenen Tunnel einzudringen.

Die Wasser- und Abwasserleitungen brachen, was zu Überschwemmungen führte, insgesamt kamen 68 Menschen ums Leben, darunter 64 Notunterkünfte und vier Bahnbedienstete.

4. Bank - 1941

Am 11. Januar kamen bei einer ähnlichen Tragödie 56 Menschen ums Leben, als eine Bombe die Fahrkartenhalle der Central Line des Bahnhofs Bank traf und die Straße in den Bahnhof einstürzte.

5. Bethnal Green - 1943

Im Krieg starben erneut 173 Menschen, als eine Menschenmenge in den Bahnhof stürmte und glaubte, Bomben gehört zu haben. Eine Frau stolperte, viele weitere Menschen stürzten und rund 300 Menschen wurden im Treppenhaus zerquetscht.

6. Northwood-Absturz - 1945

Am 31. Dezember 1945 stürzten zwei Züge auf der Metropolitan-Linie wegen Nebels ab.

Der Fahrer des zweiten Zuges hatte ein Gefahrensignal gemäß der Halt- und Weiterfahrt-Regel passiert, sah den vorausfahrenden Zug jedoch früh genug, um anzuhalten.

Das Feuer wurde durch einen elektrischen Bogen ausgelöst und leider kamen drei Menschen ums Leben.

7. Edgware Pufferstopp-Kollision - 1946

Nicht lange danach, am 27. Juli 1946, traf ein Zug der Northern Line bei Edgware auf Puffer. Es wurden keine Passagiere getötet. Der Fahrer starb, erlitt jedoch vor dem Zusammenstoß nachweislich einen Herzinfarkt.

8. Stratford-Absturz - 1953

In einer schrecklichen Wendung der Ereignisse stürzten am 8. April zwei Züge der Central Line während einer Störung aufgrund eines Signalausfalls in einen Tunnel. 12 Menschen verloren ihr Leben.

9. Feuer im Holland Park Zug - 1958

Auf der Central Line kam es aufgrund von elektrischen Kurzschlüssen in den Zügen zu einem Brand, der zu Lichtbögen führte. Die Waggons mussten evakuiert werden und sowohl Passagiere als auch Besatzungsmitglieder erlitten eine Rauchvergiftung. Leider ist ein Passagier gestorben.

10. Zugbrand in Redbridge - 1960

Bei einem sehr ähnlichen, aber nicht ganz so schweren Zugbrand zwei Jahre später, diesmal in East London, kam niemand ums Leben, aber Menschen litten nach dem Einatmen von Rauch.

11. Neasden-Absturz - 1968

Der Absturz ereignete sich in der Gegend von North West London, als ein Ballastzug drei gefährdete Signale passierte und mit dem Rücken eines Personenzuges der Bakerloo Line auf dem Bahnsteig kollidierte. Der Lokführer des Schotterzuges starb, bevor er herausgeschnitten werden konnte. Niemand sonst kam ums Leben, aber ein Inspektor und die Zugwache wurden ins Krankenhaus eingeliefert.

12. Moorgate-Kollision - 1975

Am 28. Februar 1975 erschütterte eine komplette Tragödie die Londoner U-Bahn, die mit 43 Toten endete.

Ein Zug der Northern City Line in Richtung Süden prallte hinter dem Bahnsteig des Bahnhofs Moorgate in der City in das Tunnelende. Es war der größte Verlust an Menschenleben in der U-Bahn in Friedenszeiten.

Der Fahrer war einer der Verstorbenen, so dass die Unfallursache nie vollständig geklärt wurde und bei der offiziellen Untersuchung ein Unfalltod-Urteil aufgenommen wurde.

13. Oxford Circus Feuer - 1984

Bei einem weiteren Zugbrand begannen am 23. November um 21.50 Uhr im Bahnhof Flammen zu wüten und wurden bis 3 Uhr morgens am nächsten Tag gelöscht. 14 Menschen erlitten eine Rauchvergiftung, aber zum Glück starb niemand. Es wird vermutet, dass es durch ein Raucher- und Aposs-Material verursacht wurde, das durch ein Lüftungsgitter in das Materiallager geschoben wurde, das sich entzündete.

14. Kilburn-Absturz - 1984

Am 11. Dezember passierte ein Zug der Metropolitan Line in Richtung Norden bei Nebel ein Signal bei Gefahr. Der Fahrer stellte die Steuerung zurück und bewegte sich vorwärts, wurde jedoch getötet, als der Zug mit einem vor ihm angehaltenen Zug zusammenstieß.

15. King&aposs Kreuzfeuer - 1987

Am 18. November brach im Bahnhof King&aposs Cross St Pancras ein großes Feuer aus, bei dem 31 Menschen an den giftigen Dämpfen und der extremen Hitze starben. Es wurde durch ein weggeworfenes Streichholz oder eine Zigarette verursacht, die Schutt und Fett unter den hölzernen Rolltreppen entzündete. Der Vorfall führte dazu, dass das weithin ignorierte Rauchverbot rigoroser durchgesetzt und schließlich die hölzernen Rolltreppen ersetzt wurden.

16. Gunnersbury-Dreieck - 1999

Am 24. April entgleiste ein Zug der District Line, kurz nachdem er Gunnersbury auf seinem Weg nach Richmond verlassen hatte, insbesondere an den Kreuzungspunkten des Gunnersbury Triangle, wo die Linie von der Bahnstrecke der North London Line abwich. Das nachfolgende Auto entgleiste und landete auf der Strecke. Zum Glück wurde niemand ernsthaft verletzt.

17. Chancery Lane - 2003

Ein Zug der Central Line entgleiste am 25. Januar in der Chancery Lane und 32 Passagiere wurden verletzt, nachdem sich ein Motor aus dem Zug gelöst hatte. Dies bedeutete, dass die gesamte Linie und die Waterloo & City-Linie für etwa drei Monate gesperrt waren, während die Ursache des Ausfalls ermittelt und behoben wurde, da auf beiden Linien 1992 Standardzüge verwendet wurden.

18. Hammersmith-Entgleisung - 2003

Im selben Jahr, am 17. Oktober, kam der letzte Wagen eines sechsteiligen Zugs der Piccadilly-Linie in Richtung Osten aufgrund eines Schienenbruchs von der Erhöhung östlich der Hammersmith-Station, aber glücklicherweise wurde keiner der 70 Passagiere wirklich verletzt.

19. Camden Town-Entgleisung - 2003

Nur zwei Tage später, am 19. Oktober, entgleiste der letzte Waggon eines Northern Line-Zuges, als er sich dem Bahnhof Camden Town näherte. Sieben Passagiere wurden verletzt, sechs davon minderjährig und einer ein Oberschenkelhalsbruch.

20. Entgleisung der Weißen Stadt - 2004

Dann, am 11. Mai des folgenden Jahres, kam das führende Drehgestell eines siebten Wagens eines Central Line-Zuges bei der Einfahrt nach White City von den Gleisen, aber erneut wurde zum Glück niemand an Bord verletzt.

21. 7. Juli 2005 Bombenanschläge in London

Diese Tragödie, die oft als die 7/7-Bombenanschläge bezeichnet wird, hat die Nation erschüttert. Bei einer Reihe von koordinierten Terroranschlägen auf öffentliche Verkehrsmittel in London starben 56 Menschen, darunter die vier Bomber, die die Anschläge verübten. Weitere 784 Menschen wurden verletzt und die Angriffe betrafen Londoner U-Bahn-Züge sowie einen Londoner Bus.

22. Mile End Entgleisung - 2007

Am 5. Juli entgleiste zwei Wagen eines westgehenden Central Line-Zuges mit 65 km/h zwischen den Stationen Bethnal Green und Mile End. 520 Passagiere waren zwei Stunden lang unter der Erde gefangen, bis sie aus dem entgleisten Zug eskortiert wurden, indem sie Linien bildeten und einander entlang der Gleise bis zum Bahnhof Mile End folgten.

8 Personen mussten im Krankenhaus behandelt werden und weitere 13 wurden mit leichten Verletzungen vor Ort behandelt. Die meisten Verletzten wurden auf dem Weg zum Bahnhof erlitten.

Holen Sie sich WhatsApp-Nachrichtenbenachrichtigungen auf Ihr Telefon

Wir haben eine neue WhatsApp-Gruppe eingerichtet, damit Sie die neuesten Schlagzeilen aus London direkt auf Ihr Telefon erhalten.

Um täglich eine Nachricht mit den wichtigsten Schlagzeilen sowie Eilmeldungen zu erhalten, senden Sie eine der folgenden Nachrichten an 07900 342671 auf WhatsApp, je nachdem, von wo Sie Nachrichten erhalten möchten:

  • LONDON-NEWS
  • ZENTRALE LONDON-NEWS
  • NEUIGKEITEN AUS NORTH LONDON
  • NACHRICHTEN AUS OSTLONDON
  • NACHRICHTEN AUS SÜDLONDON
  • NACHRICHTEN AUS WESTLONDON

Dann fügen Sie die Nummer Ihrem Telefonbuch als &aposMyLondon&apos hinzu. Sie müssen dies tun, oder Sie erhalten die Nachrichten nicht.

Sie erhalten täglich eine Nachricht. Sie können jederzeit mit dem Wort STOP antworten.

Ihre Telefonnummer hat gewonnen&apost wird mit anderen Mitgliedern der Gruppe geteilt.

23. Ausreißerzug - 2010

Am frühen Morgen des 13. August wurde eine kaputte Gleismaschine von der Lokomotive abgekoppelt, die sie schleppte, so dass sie vom Bahnhof Archway nach Süden rollte. Der außer Kontrolle geratene Zug passierte viele Haltestellen, bis er die Station Warren Street erreichte, wo ein Hügel ihn schließlich zum Halten brachte.

Am 28. Februar (2013) wurden die Londoner U-Bahn, Tube Lines und das deutsche Unternehmen Schweerbau im Old Bailey wegen Verstößen gegen Gesundheit und Sicherheit jeweils mit einer Geldstrafe von 100.000 GBP belegt.

24. Passagier am Bahnhof Holborn geschleppt - 2014

In der jüngsten Aufzeichnung einer Tragödie in der Londoner U-Bahn am 3. Februar musste eine Passagierin ins Krankenhaus eingeliefert werden, nachdem sie von einem abfahrenden Zug der Piccadilly-Linie über den Bahnsteig geschleift worden war, nachdem ihr Schal in einer sich schließenden U-Bahn-Tür hängen blieb.


Holen Sie sich eine Kopie


Inhalt

1880er-1924: Der Ursprung von IBM Edit

Die Wurzeln von IBM reichen bis in die 1880er Jahre zurück und gehen auf vier Vorgängerunternehmen zurück: [8] [9] [10] [11]

  • Die Bundy Manufacturing Company war der erste Hersteller von Stechuhren. Das Unternehmen wurde 1889 von Harlow Bundy in Binghamton, New York, gegründet.
  • The Tabulating Machine Company war der erste Hersteller von lochkartenbasierten Datenverarbeitungsmaschinen. Herman Hollerith begann bereits 1884 mit dem Bau der Maschinen und gründete 1896 die Tabulating Machine Company in Washington, D.C.
  • Die International Time Recording Company wurde 1900 von George Winthrop Fairchild in Jersey City, New Jersey, gegründet und 1901 in Binghamton neu gegründet. Das Unternehmen zog 1906 in das nahegelegene Endicott, New York, um.
  • Die Computing Scale Company of America wurde 1901 in Dayton, Ohio gegründet.

Am 16. Juni 1911 wurden diese vier Unternehmen zu einer neuen Holdinggesellschaft namens Computing-Tabulating-Recording Company (CTR) mit Sitz in Endicott zusammengeführt. [12] [13] [14] [15] Die Fusion wurde von dem bekannten Finanzier Charles Flint durchgeführt. Flint blieb bis zu seiner Pensionierung 1930 im Vorstand der CTR. [16] Zum Zeitpunkt des Zusammenschlusses hatte CTR 1.300 Mitarbeiter sowie Büros und Werke in Endicott und Binghamton, New York Dayton, Ohio Detroit, Michigan Washington, DC und Toronto, Ontario.

Nach dem Zusammenschluss firmierten die einzelnen Gesellschaften als Tochterunternehmen der CTR bis zur Auflösung der Holding im Jahr 1933 unter ihren etablierten Namen weiter. automatische Fleischschneidemaschinen, Kaffeemühlen und Lochkartengeräte. Die Produktlinien waren sehr unterschiedlich Flint erklärte, dass die "verbündete" Konsolidierung:

. anstatt von einem einzigen Wirtschaftszweig abhängig zu sein, würde er drei getrennte und unterschiedliche Geschäftszweige besitzen, so dass in normalen Zeiten die Zinsen und sinkenden Gelder auf seinen Anleihen von jedem dieser unabhängigen Zweige erwirtschaftet werden könnten, während in anormalen Zeiten die Konsolidierung hätte statt einer drei Chancen, ihren Verpflichtungen nachzukommen und Dividenden auszuschütten. [18]

Unter den zur CTR zusammengeschlossenen Unternehmen war die von Herman Hollerith gegründete The Tabulating Machine Company, die sich auf die Entwicklung von Lochkarten-Datenverarbeitungsgeräten spezialisiert hatte, die technologisch bedeutendste. Holleriths Patentserie zur Tabellierungsmaschinentechnologie, die erstmals 1884 angemeldet wurde, stützte sich auf seine Arbeit beim U.S. Census Bureau von 1879–82. Hollerith versuchte zunächst, den Zeit- und Komplexitätsaufwand für die tabellarische Aufstellung der Volkszählung von 1890 zu reduzieren. Seine Entwicklung von Lochkarten im Jahr 1886 setzte den Industriestandard für die nächsten 80 Jahre der tabellarischen und rechnerischen Dateneingabe. [19]

Im Jahr 1896 vermietete The Tabulating Machine Company einige Maschinen an eine Eisenbahngesellschaft [20], konzentrierte sich jedoch schnell auf die Herausforderungen des größten statistischen Unterfangens seiner Zeit – der US-Volkszählung von 1900. Nachdem Hollerith den Regierungsauftrag gewonnen und das Projekt abgeschlossen hatte, stand er vor der Herausforderung, das Unternehmen auch in Jahren außerhalb der Volkszählung zu erhalten. Er wandte sich wieder privaten Unternehmen in den Vereinigten Staaten und im Ausland zu und versuchte, Industrieanwendungen für seine automatischen Stanz-, Tabellier- und Sortiermaschinen zu identifizieren. Im Jahr 1911 verkaufte Hollerith, jetzt 51 und in angeschlagener Gesundheit, das Geschäft für 2,3 Millionen US-Dollar (von denen Hollerith 1,2 Millionen US-Dollar erhielt) an Flint, der dann CTR gründete. Als sich die diversifizierten Geschäfte von CTR als schwierig herausstellten, wandte sich Flint um Hilfe an den ehemaligen Manager Nr. 2 der National Cash Register Company (NCR), Thomas J. Watson, Sr. Watson wurde 1914 General Manager von CTR und Präsident in 1915. Watson nutzte seine Führungserfahrung bei NCR und setzte schnell eine Reihe effektiver Geschäftstaktiken um: großzügige Verkaufsanreize, eine Konzentration auf den Kundenservice, ein Beharren auf gepflegten, dunkel gekleideten Verkäufern und ein evangelischer Eifer, um Unternehmen zu vermitteln Stolz und Loyalität in jedem Arbeiter. Als sich die Vertriebsmitarbeiter zu einem hochprofessionellen und sachkundigen Zweig des Unternehmens entwickelten, konzentrierte sich Watson auf die Bereitstellung umfangreicher Tabellenlösungen für Unternehmen und überließ den Markt für kleine Büroprodukte anderen. Er betonte auch die Bedeutung des Kunden, ein dauerhafter Grundsatz von IBM. Die Strategie erwies sich als erfolgreich, da sich der Umsatz in den ersten vier Jahren von Watson auf 2 Millionen US-Dollar verdoppelte und die Unternehmensaktivitäten auf Europa, Südamerika, Asien und Australien ausgeweitet wurden.

Während dieser Zeit an der Spitze spielte Watson eine zentrale Rolle bei der Etablierung der IBM-Organisation und -Kultur. Er startete eine Reihe von Initiativen, die ein unerschütterliches Vertrauen in seine Arbeiter demonstrierten. Er stellte 1914 den ersten behinderten Arbeiter des Unternehmens ein, gründete 1916 die erste Abteilung für Mitarbeiterbildung des Unternehmens und führte 1915 seinen Lieblingsslogan "THINK" ein, der schnell zum Unternehmensmantra wurde. Watson förderte den Unternehmensgeist, indem er jeden Mitarbeiter mit einer Beschwerde dazu ermutigte, sich an ihn oder einen anderen Unternehmensleiter zu wenden – seine berühmte Politik der offenen Tür. Er sponserte auch Mitarbeitersportteams, Familienausflüge und eine Firmenband, da er glaubte, dass Mitarbeiter am produktivsten waren, wenn sie von gesunden und unterstützenden Familien und Gemeinschaften unterstützt wurden. Diese Initiativen – jede tief verwurzelt in Watsons persönlichem Wertesystem – wurden für den Rest des Jahrhunderts zu zentralen Aspekten der IBM-Kultur.

"Watson hatte den ungeschickten Titel der CTR mit Bindestrich nie gemocht" und entschied sich, ihn durch den umfangreicheren Titel "International Business Machines" zu ersetzen. [21] Zuerst als Name für eine kanadische Tochtergesellschaft von 1917, dann als Zeile in der Werbung. Am 14. Februar 1924 wurde der Name schließlich für CTR selbst verwendet.

Wichtige Ereignisse Bearbeiten

  • 1890-1895: Holleriths Lochkarten, die für die Volkszählung von 1890 verwendet wurden. Das U.S. Census Bureau verpflichtet sich, die Lochkarten-Tabulatortechnologie von Herman Hollerith bei der Volkszählung von 1890 zu verwenden. Diese Volkszählung wurde in 6 Jahren abgeschlossen und hat der Regierung schätzungsweise 5 Millionen US-Dollar eingespart. [22] Die vorherige Volkszählung von 1880 hatte 8 Jahre benötigt. Die erforderlichen Jahre sind nicht direkt vergleichbar, die beiden unterscheiden sich in: Bevölkerungsgröße, gesammelte Daten, Ressourcen (Personalzahl des Volkszählungsbüros, Maschinen, . ) und erstellte Berichte. Die Gesamtbevölkerung von 62.947.714, die Familie oder rauh, Graf, wurde nach nur sechs Wochen Bearbeitungszeit bekannt gegeben (für diese Aufstellung wurden keine Lochkarten verwendet). [23][24] Holleriths Lochkarten werden für die nächsten 70 Jahre zum tabellarischen Industriestandard für Eingaben. Holleriths The Tabulating Machine Company wird später zu IBM konsolidiert.
  • 1906: Hollerith Typ I Tabulator. Der erste Tabulator mit automatischem Karteneinzug und Bedienfeld. [25]
  • 1911: Gründung. Charles Flint, ein bekannter Treuhandorganisator, entwickelt den Zusammenschluss von vier Unternehmen: The Tabulating Machine Company, der International Time Recording Company, der Computing Scale Company of America und der Bundy Manufacturing Company. Die fusionierten Unternehmen produzieren und verkaufen oder vermieten Maschinen wie Handelswaagen, industrielle Zeiterfassungsgeräte, Fleisch- und Käsehobel, Tabulatoren und Lochkarten. Die neue Holdinggesellschaft Computing-Tabulating-Recording Company hat ihren Sitz in Endicott. Einschließlich der fusionierten Tochtergesellschaften beschäftigte CTR 1.300 Mitarbeiter mit Büros und Werken in Endicott und Binghamton, New York Dayton, Ohio, Detroit, Michigan und Washington, D.C. [26][27]
  • 1914: Thomas J. Watson kommt an. Thomas J. Watson Sr., eine einjährige Haftstrafe anhängig – siehe NCR – wird zum General Manager von CTR ernannt. Weniger als ein Jahr später wurde das Gerichtsurteil aufgehoben. Es wurde ein Zustimmungsdekret ausgearbeitet, das Watson sich weigerte zu unterzeichnen, wobei er darauf setzte, dass es keine Wiederaufnahme des Verfahrens geben würde. Er wird am Montag, 15. März 1915, Präsident der Firma. [28]
  • 1914: Erster behinderter Arbeitnehmer. CTR-Unternehmen stellen ihren ersten behinderten Mitarbeiter ein. [29]
  • 1915: "THINK"-Zeichen. "THINK"-Schilder, basierend auf dem Slogan, den Thomas J. Watson, Sr. während seiner Zeit bei NCR geprägt und von John Henry Patterson (NCR-Eigentümer) gefördert wurde, werden zum ersten Mal in den Unternehmen verwendet. [30]
  • 1916: Mitarbeiterschulung. CTR investiert in die Mitarbeiter seiner Tochtergesellschaft und erstellt ein Bildungsprogramm. In den nächsten zwei Jahrzehnten wurde das Programm um Managementausbildung, freiwillige Studienclubs und den Bau des IBM-Schulhauses im Jahr 1933 erweitert. [31]
  • 1917: CTR in Brasilien. 1917 in Brasilien uraufgeführt, von der brasilianischen Regierung eingeladen, die Volkszählung durchzuführen, eröffnete CTR ein Büro in Brasilien [32]
  • 1920: First Tabulating Machine Co. drucken Tabulator. Bei früheren Tabulatoren wurden die Ergebnisse angezeigt und mussten von Hand kopiert werden. [33]
  • 1923: CTR Deutschland. CTR erwirbt die Mehrheitseigentümerschaft des deutschen Tabellenunternehmens Deutsche Hollerith Maschinen Groupe (Dehomag).
  • 1924: International Business Machines Corporation. "Watson hatte den plumpen Bindestrich-Titel Computing-Tabulating-Recording Company nie gemocht" und wählte den neuen Namen sowohl für seinen Anspruch als auch um den Grenzen von "Bürogerät" zu entkommen. Der neue Name wurde erstmals 1917 für die kanadische Tochtergesellschaft des Unternehmens verwendet. Am 14. Februar 1924 wurde der Name von CTR offiziell in International Business Machines Corporation (IBM) geändert. [21] Die Namen der Tochtergesellschaften änderten sich nicht, bis 1933 (unten), als die Tochtergesellschaften in IBM fusioniert wurden, gab es keine Produkte mit IBM-Etikett.

1925-1929: IBMs frühes Wachstum Bearbeiten

Unsere Produkte sind in jeder Zone bekannt. Unser Ruf funkelt wie ein Juwel. Wir haben uns durchgekämpft und neue Felder werden wir bestimmt auch erobern. Für die immer weiter fortschreitende IBM

Watson ordnete strenge Regeln für Mitarbeiter an, darunter eine Kleiderordnung für dunkle Anzüge, weiße Hemden und gestreifte Krawatten und keinen Alkohol, egal ob bei der Arbeit oder nicht. Er leitete das Singen bei Treffen von Liedern wie "Ever Onward" aus dem offiziellen IBM-Songbook. [34] Das Unternehmen startete eine Mitarbeiterzeitung, Business Machines, die alle Geschäftsbereiche von IBM in einer Publikation vereinte. [35] IBM führte den Quarter Century Club [36] ein, um Mitarbeiter mit 25-jähriger Betriebszugehörigkeit zu ehren, und rief den Hundred Percent Club ins Leben, um Vertriebsmitarbeiter zu belohnen, die ihre jährlichen Quoten erfüllten. [37] Im Jahr 1928 wurde das Suggestion Plan-Programm vorgestellt, das Mitarbeitern, die tragfähige Ideen zur Verbesserung von IBM-Produkten und -Verfahren beisteuerten, Geldprämien gewährte. [38]

IBM und seine Vorgängerunternehmen stellten 70 Jahre lang Uhren und andere Zeiterfassungsprodukte her, die 1958 im Verkauf der IBM Time Equipment Division an die Simplex Time Recorder Company gipfelten Türschlösser, Zeitstempel und Verkehrsrekorder. [41] [42]

Darüber hinaus erweiterte das Unternehmen seine Produktpalette durch innovatives Engineering. Hinter einer Kerngruppe von Erfindern – James W. Bryce, Clair Lake, [43] Fred Carroll, [44] und Royden Pierce [45] – hat IBM eine Reihe bedeutender Produktinnovationen hervorgebracht. In den optimistischen Jahren nach dem Ersten Weltkrieg entwickelten die Ingenieur- und Forschungsmitarbeiter von CTR neue und verbesserte Mechanismen, um den wachsenden Bedürfnissen seiner Kunden gerecht zu werden. 1920 führte das Unternehmen das erste vollständige Schulzeitkontrollsystem ein [46] und brachte seinen ersten Drucktabulator auf den Markt. [47] Drei Jahre später führte das Unternehmen den ersten elektrischen Keypunch ein, [48] und die Carroll Rotary Press von 1924 produzierte Lochkarten in bisher unerreichter Geschwindigkeit. [35] Im Jahr 1928 veranstaltete das Unternehmen seine erste Kundentechnik-Ausbildungsklasse und zeigte damit eine frühzeitige Erkenntnis, wie wichtig es ist, Lösungen an die Bedürfnisse der Kunden anzupassen. [49] 1928 wurde auch die 80-spaltige Lochkarte eingeführt, die ihre Informationskapazität verdoppelte. [49] Dieses neue Format, das bald als "IBM Card" bezeichnet wurde, wurde und blieb bis in die 1970er Jahre ein Industriestandard.

Wichtige Ereignisse Bearbeiten

  • 1925: Erster Tabulator nach Japan verkauft. Im Mai 1925 schlossen Morimura-Brothers mit IBM einen Alleinvertretungsvertrag über den Import von Hollerith-Tabulatoren nach Japan ab. Der erste Hollerith-Tabulator in Japan wurde im September 1925 bei Nippon Pottery (jetzt Noritake) installiert und war damit IBM-Kunde Nr. 1 in Japan. [50][51][52]
  • 1927: IBM Italien. IBM eröffnet in Mailand sein erstes Büro in Italien und beginnt mit dem Verkauf und der Geschäftstätigkeit mit National Insurance and Banks.
  • 1928: Ein Tabulator, der subtrahieren kann, Columbia University, 80-Spalten-Karte. Der erste Hollerith-Tabulator, der subtrahieren konnte, der Hollerith-Typ-IV-Tabulator. [53] IBM beginnt seine Zusammenarbeit mit Benjamin Wood, Wallace John Eckert und dem Statistical Bureau der Columbia University. [54][55] Die Hollerith 80-spaltige Lochkarte wird eingeführt. Seine rechteckigen Löcher sind patentiert, was die Herstellerkompatibilität beendet (von der früheren 45-Säulen-Karte würde Remington Rand bald eine 90-Säulen-Karte einführen). [56]

1930–1938: Die Weltwirtschaftskrise Bearbeiten

Die Große Depression der 1930er Jahre stellte eine beispiellose wirtschaftliche Herausforderung dar, und Watson stellte sich dieser Herausforderung direkt und investierte trotz der schwierigen wirtschaftlichen Zeiten weiterhin in Menschen, Fertigung und technologische Innovation. Anstatt Personal zu reduzieren, stellte er zusätzliche Mitarbeiter ein, um den Plan der National Recovery Administration von Präsident Franklin Roosevelt zu unterstützen – nicht nur Verkäufer, für die er scherzte, dass er eine lebenslange Schwäche hatte, sondern auch Ingenieure. Watson hielt nicht nur seine Belegschaft angestellt, sondern erhöhte auch ihre Leistungen. IBM war eines der ersten Unternehmen, das Gruppenlebensversicherungen (1934), Hinterbliebenenleistungen (1935) und bezahlten Urlaub (1936) anbot. Er erhöhte seinen Einsatz gegenüber seiner Belegschaft, indem er das IBM Schoolhouse in Endicott eröffnete, um Aus- und Weiterbildung für IBM-Mitarbeiter anzubieten.Und er erweiterte die Forschungskapazitäten von IBM erheblich, indem er ein modernes Forschungslabor am Produktionsstandort von Endicott errichtete.

Bei all diesen internen Investitionen spielte Watson im Wesentlichen auf die Zukunft. Es war IBMs erstes „Bet the Company“-Wettspiel, aber das Risiko zahlte sich gut aus. Watsons Fabriken, die sechs Jahre lang auf Hochtouren liefen, ohne dass ein Markt verkauft werden konnte, schufen einen riesigen Bestand an ungenutzten Tabelliergeräten, was die Ressourcen von IBM überforderte. Um den Liquiditätsabfluss zu reduzieren, wurde die angeschlagene Dayton Scale Division (das Geschäft mit Gastronomiegeräten) 1933 für Lagerbestände an Hobart Manufacturing verkauft. [57] [58] Als das Sozialversicherungsgesetz von 1935 – als „größter Buchhaltungsbetrieb aller Zeiten“ [59] bezeichnet – zur Ausschreibung kam, war IBM der einzige Bieter, der die notwendige Ausrüstung schnell bereitstellen konnte. Watsons Wagnis brachte dem Unternehmen einen wegweisenden Regierungsvertrag ein, um die Beschäftigungsaufzeichnungen für 26 Millionen Menschen zu führen. Die erfolgreiche Vertragserfüllung durch IBM führte bald zu weiteren Regierungsaufträgen, und am Ende des Jahrzehnts hatte IBM nicht nur die Depression sicher überstanden, sondern war auch an die Spitze der Branche aufgestiegen. Watsons Entscheidung aus der Zeit der Depression, stark in technische Entwicklung und Vertriebskapazitäten zu investieren, Schulungen zur Erweiterung dieser Fähigkeiten und sein Engagement für die Datenverarbeitungsproduktlinie legten den Grundstein für 50 Jahre IBM-Wachstum und -Erfolge.

Sein erklärter Fokus auf internationale Expansion erwies sich als ebenso wichtiger Bestandteil des Wachstums und des Erfolgs des Unternehmens im 20. Jahrhundert. Watson war Zeuge der Verwüstung, die der Erste Weltkrieg in Gesellschaft und Wirtschaft angerichtet hatte, und stellte sich den Handel als Kriegshindernis vor. Er sah Geschäftsinteressen und Frieden als vereinbar an. Tatsächlich war ihm die Verbindung zwischen den beiden so wichtig, dass er seinen Slogan "Weltfrieden durch Welthandel" in das Äußere von IBMs neuem Welthauptquartier (1938) in New York City eingravieren ließ. [60] Der Slogan wurde zu einem IBM-Geschäftsmantra, und Watson setzte sich unermüdlich bei globalen Wirtschafts- und Regierungsführern für das Konzept ein. Er diente als informeller, inoffizieller Regierungsgast für führende Persönlichkeiten der Welt, wenn sie New York besuchten, und erhielt zahlreiche Auszeichnungen von ausländischen Regierungen für seine Bemühungen, die internationalen Beziehungen durch die Bildung von Geschäftsbeziehungen zu verbessern.

Wichtige Ereignisse Bearbeiten

  • 1931: Der erste Hollerith-Lochkartenautomat, der multiplizieren konnte, der erste Hollerith-Buchführungsautomat. Der Hollerith 600 Multiplikator. [61] Die erste alphabetische Buchführungsmaschine von Hollerith – obwohl kein vollständiges Alphabet, wurde dem Alphabetic Tabulator Model B schnell das vollständige Alphabet ATC gefolgt. [56]
  • 1931: Supercomputermaschine. Der Begriff Super-Rechenmaschine wird von der Zeitung New York World verwendet, um die Columbia Differenz-Tabulator, eine einzigartige, auf Tabulatoren basierende Maschine, die für das Columbia Statistical Bureau hergestellt wurde, eine Maschine, die so massiv ist, dass sie den Spitznamen erhielt Packard. [62][63] Die Packard zog Benutzer aus dem ganzen Land an: "die Carnegie Foundation, Yale, Pittsburgh, Chicago, Ohio State, Harvard, Kalifornien und Princeton." [64]
  • 1933: Tochterunternehmen werden in IBM fusioniert. Der Name Tabulating Machine Company und andere verschwinden, wenn Tochterunternehmen in IBM fusioniert werden. [65][66]
  • 1933: Abnehmbare Bedienfelder. IBM führt abnehmbare Bedienfelder ein. [67]
  • 1933: 40-Stunden-Woche. IBM führt die 40-Stunden-Woche für Produktions- und Bürostandorte ein.
  • 1933: Erwerb der Electromatic Typewriter Co.. Gekauft vor allem um wichtige Patente sicher in die Hände von IBM zu bekommen, würden elektrische Schreibmaschinen zu einem der bekanntesten Produkte von IBM werden. [68] Bis 1958 erzielte IBM 8% seiner Einnahmen aus dem Verkauf von elektrischen Schreibmaschinen. [69]
  • 1934 – Gruppenlebensversicherung. IBM erstellt für alle Mitarbeiter mit mindestens einem Jahr Betriebszugehörigkeit einen Gruppenlebensversicherungsplan. [70]
  • 1934: Abschaffung der Akkordarbeit. Watson, Sr., stellt den Werksmitarbeitern von IBM ein Gehalt ein, eliminiert Akkordarbeit und bietet Mitarbeitern und ihren Familien ein zusätzliches Maß an wirtschaftlicher Stabilität. [71]
  • 1934: IBM 801. Die IBM 801 Bank Proof Maschine zum Einlösen von Bankschecks wird eingeführt. Eine neue Art von Prüfmaschine, die 801 listet und trennt Schecks, bestätigt sie und zeichnet Gesamtsummen auf. Es verbessert die Effizienz des Scheckverrechnungsprozesses dramatisch. [72]
  • 1935: Sozialversicherungsverwaltung. Während der Weltwirtschaftskrise lässt IBM seine Fabriken auch bei schwacher Nachfrage neue Maschinen produzieren. Als der Kongress 1935 das Sozialversicherungsgesetz verabschiedet, ist IBM – mit seinem überlagerten Lagerbestand – in der Lage, den bahnbrechenden Regierungsauftrag zu gewinnen, der als "die größte Buchhaltungsoperation aller Zeiten" bezeichnet wird. [73]
  • 1936: Oberster Gerichtshof entscheidet, dass IBM nur Spezifikationen für Lochkarten festlegen kann. IBM verlangte zunächst, dass seine Kunden nur von IBM hergestellte Karten mit IBM-Maschinen verwenden, die geleast und nicht verkauft wurden. IBM sah sein Geschäft als Dienstleistung an und die Karten seien Teil der Maschine. 1932 verklagte die Regierung IBM in dieser Angelegenheit. IBM kämpfte bis vor den Obersten Gerichtshof und verlor 1936 das Gerichtsurteil, dass IBM nur Kartenspezifikationen festlegen durfte. [74]
  • 1937: Wissenschaftliches Rechnen. Das an der Columbia University eingerichtete Rechenzentrum für tabellarische Maschinen, das der wissenschaftlichen Forschung gewidmet ist, trägt den Namen Thomas J. Watson Astronomical Computing Bureau. [75]
  • 1937: Der erste Collator, der IBM 077 Collator. [76]
  • 1937: IBM produziert täglich 5 bis 10 Millionen Lochkarten. Bis 1937 hatte IBM 32 Druckmaschinen in Endicott, N.Y., im Einsatz, die täglich fünf bis zehn Millionen Lochkarten druckten, schneiden und stapelten. [77]
  • 1937: IBM 805 Testbewertungsmaschine. Rey Johnson von IBM entwickelt die IBM 805 Test Scoring Machine, um den Prozess der Testbewertung erheblich zu beschleunigen. Die innovative Bleistift-Markierungstechnologie des 805 lässt den allgegenwärtigen Satz „Bitte füllen Sie das Oval vollständig aus“. [78]
  • 1937: Berliner Konferenz. Als Präsident der Internationalen Handelskammer leitet Watson Sr. den 9. Kongress des ICC in Berlin. Dort nimmt er ein Verdienstkreuz des Deutschen Adlers mit Stern von der NS-Regierung entgegen, das seine Aktivitäten für den Weltfrieden und den internationalen Handel würdigt (er gab es später zurück). [79][80]
  • 1937: Bezahlter Urlaub, bezahlter Urlaub. IBM kündigt eine Richtlinie an, Mitarbeiter für sechs Jahresurlaube zu zahlen, und gewährt als eines der ersten US-Unternehmen Urlaubsgeld. Auch der bezahlte Urlaub beginnt." [81]
  • 1937: IBM Japan. Japan Wattoson Statistics Accounting Machinery Co., Ltd. (日本ワットソン統計会計機械株式会社, jetzt IBM Japan) wurde gegründet. [51]
  • 1938: Neuer Hauptsitz. Als IBM im Januar 1938 seine neue Weltzentrale in der 590 Madison Avenue, New York, New York, einweiht, ist das Unternehmen in 79 Ländern vertreten. [60]

1939–1945: Zweiter Weltkrieg Bearbeiten

In den Jahrzehnten vor dem Ausbruch des Zweiten Weltkriegs hatte IBM Operationen in vielen Ländern, die in den Krieg verwickelt waren, sowohl auf der Seite der Alliierten als auch auf der Seite der Achsenmächte. IBM hatte eine lukrative Tochtergesellschaft in Deutschland, deren Mehrheitseigentümer sie war, sowie Betriebe in Polen, der Schweiz und anderen europäischen Ländern. Wie bei den meisten anderen feindlichen Unternehmen in den Achsenländern wurden diese Tochtergesellschaften zu Beginn des Krieges von den Nazis und anderen Achsenregierungen übernommen. Das Hauptquartier in New York arbeitete unterdessen, um die amerikanischen Kriegsanstrengungen zu unterstützen.

IBM in Amerika Bearbeiten

Die Produktlinie von IBM [82] verlagerte sich von tabellarischen Geräten und Zeiterfassungsgeräten zu Sperry- und Norden-Bombenvisieren, Browning Automatic Rifle und dem M1 Carbine sowie Motorenteilen – insgesamt mehr als drei Dutzend Hauptkampfmittel und insgesamt 70 Produkte. Watson legte einen nominalen Gewinn von einem Prozent für diese Produkte fest und verwendete die Gewinne, um einen Fonds für Witwen und Waisen von IBM-Kriegsopfern einzurichten. [83]

Die alliierten Streitkräfte nutzten die Tabellierungsausrüstung von IBM in großem Umfang für mobile Rekordeinheiten, Ballistik, Buchhaltung und Logistik und andere kriegsbezogene Zwecke. Während des Manhattan-Projekts zur Entwicklung der ersten Atombomben wurden in Los Alamos in großem Umfang Lochkartenmaschinen von IBM verwendet. [84] Während des Krieges baute IBM auch den Automatic Sequence Controlled Calculator, auch bekannt als Harvard Mark I für die U.S. Navy – den ersten großen elektromechanischen Rechner in den USA.

1933 hatte IBM die Rechte an Radiotype erworben, einer IBM Electric-Schreibmaschine, die an einen Radiosender angeschlossen war. [85] "Im Jahr 1935 schickte Admiral Richard E. Byrd erfolgreich eine Test-Radiotype-Nachricht 11.000 Meilen von der Antarktis an eine IBM-Empfangsstation in Ridgewood, New Jersey" [86] Ausgewählt vom Signal Corps für den Einsatz während des Krieges, wurden Radiotype-Installationen bearbeitet bis 50.000.000 Wörter pro Tag. [87]

Um die Produktnachfrage während des Krieges zu erfüllen, hat IBM seine Produktionskapazitäten stark erweitert. IBM fügte seinem Werk Endicott, New York (1941) neue Gebäude hinzu und eröffnete neue Einrichtungen in Poughkeepsie, New York (1941), Washington, D.C. (1942) [88] und San Jose, Kalifornien (1943). [89] Die Entscheidung von IBM, eine Präsenz an der Westküste aufzubauen, nutzte die wachsende Basis der Elektronikforschung und anderer Hightech-Innovationen im südlichen Teil der San Francisco Bay Area, einem Gebiet, das viele Jahrzehnte später als Silicon . bekannt wurde Senke.

IBM war auf Wunsch der Regierung Subunternehmer für das Lochkartenprojekt der japanischen Internierungslager. [90]

IBM-Ausrüstung wurde von Organisationen der US-Armee und der Marine, Arlington Hall und OP-20-G und ähnlichen alliierten Organisationen für die Kryptographie verwendet Hollerith Lochkarten (Zentralbüro und Fernost-Kombinationsbüro).

IBM in Deutschland und das von den Nazis besetzte Europa Bearbeiten

Die Nazis machten umfangreiche Nutzung von Hollerith-Geräten und die mehrheitlich von IBM gehaltene deutsche Tochtergesellschaft Deutsche Hollerith Maschinen GmbH (Dehomag) lieferte diese Geräte ab den frühen 1930er Jahren. Diese Ausrüstung war von entscheidender Bedeutung für die Bemühungen der Nazis, Bürger sowohl Deutschlands als auch anderer Nationen zu kategorisieren, die durch laufende Volkszählungen unter die Kontrolle der Nazis fielen. Diese Volkszählungsdaten wurden verwendet, um die Razzia gegen Juden und andere Zielgruppen zu erleichtern und ihre Bewegungen durch die Maschinerie des Holocaust, einschließlich der Internierung in Konzentrationslagern, zu katalogisieren.

Wie Hunderte ausländischer Unternehmen, die damals in Deutschland Geschäfte machten, geriet die Dehomag vor und während des Zweiten Weltkriegs unter die Kontrolle der NS-Behörden. Ein Nazi, Hermann Fellinger, wurde von den Deutschen als feindlicher Sachwalter eingesetzt und an die Spitze der Dehomag-Niederlassung gestellt.

Der Historiker und Autor Edwin Black behauptet in seinem Bestseller zum Thema, die Beschlagnahme der deutschen Niederlassung sei eine List gewesen. Er schreibt: "Das Unternehmen wurde nicht geplündert, seine geleasten Maschinen wurden nicht beschlagnahmt und [IBM] erhielt weiterhin Geld, das über seine Tochtergesellschaft in Genf geleitet wurde." [91] In seinem Buch argumentiert er, dass IBM ein aktiver und enthusiastischer Lieferant des Nazi-Regimes war, lange nachdem es hätte aufhören sollen, sich mit ihnen zu beschäftigen. Auch nach der Invasion Polens hat IBM die Dienste für das Dritte Reich in Polen und Deutschland weiter betreut und ausgebaut. [91] Die Beschlagnahme von IBM erfolgte nach Pearl Harbor und der US-Kriegserklärung im Jahr 1941.

IBM antwortete, dass das Buch auf "bekannten" Fakten und Dokumenten beruhte, die es zuvor öffentlich zugänglich gemacht hatte, und dass es keine neuen Fakten oder Erkenntnisse gebe. [92] IBM bestritt auch, relevante Dokumente zurückzuhalten. [93] In einem Schreiben in der New York Times argumentierte Richard Bernstein, dass Black die Schuld von IBM überbewertet. [94]

Wichtige Ereignisse Bearbeiten

  • 1942: Behindertenausbildung. IBM startet ein Programm zur Ausbildung und Beschäftigung behinderter Menschen in Topeka, Kansas. Der Unterricht im nächsten Jahr beginnt in New York City, und bald wird das Unternehmen gebeten, dem Präsidentenausschuss für die Beschäftigung von Behinderten beizutreten. [95]
  • 1943: Erste weibliche Vizepräsidentin. IBM ernennt seine erste weibliche Vizepräsidentin. [96]
  • 1944: ASCC. IBM stellt den ersten Großrechner der Welt vor, den Automatic Sequence Control Calculator (ASCC). Das in Zusammenarbeit mit der Harvard University entwickelte ASCC, auch bekannt als Mark I, verwendet elektromechanische Relais, um Additionsprobleme in weniger als einer Sekunde, Multiplikation in sechs Sekunden und Division in 12 Sekunden zu lösen. [97]
  • 1944: United Negro College Fund. IBM-Präsident Thomas J. Watson, Sr., tritt dem Beratungsausschuss des United Negro College Fund (UNCF) bei, und IBM trägt zu den Fundraising-Bemühungen der UNCF bei. [98]
  • 1945: IBMs erstes Forschungslabor. Die erste Forschungseinrichtung von IBM, das Watson Scientific Computing Laboratory, wird in einem renovierten Studentenwohnheim nahe der Columbia University in Manhattan eröffnet. 1961 verlegt IBM seinen Forschungssitz in das T.J. Watson-Forschungszentrum in Yorktown Heights, New York. [99]

1946-1959: Erholung nach dem Krieg, Aufstieg des Business Computing, Weltraumforschung, der Kalte Krieg

IBM hatte bis zum Ende des Krieges so stark expandiert, dass das Unternehmen in eine potenziell schwierige Situation geraten war – was würde passieren, wenn die Militärausgaben stark zurückgingen? Eine Möglichkeit, dieses Anliegen anzugehen, bestand darin, sein internationales Wachstum in den Jahren nach dem Krieg zu beschleunigen, was in der Gründung der World Trade Corporation im Jahr 1949 gipfelte, um seine Auslandsaktivitäten zu verwalten und auszubauen. Unter der Führung von Watsons jüngstem Sohn Arthur K. „Dick“ Watson produzierte das WTC in den 1970er Jahren schließlich die Hälfte des Nettogewinns von IBM.

Obwohl IBM 1951 seinen ersten Computer ein Jahr nach Remington Rands UNIVAC auf den Markt brachte, hatte IBM innerhalb von fünf Jahren 85 % des Marktes. „Es bringt nicht viel, eine bessere Mausefalle zu bauen, wenn der andere Mausefallenverkäufer fünfmal so viele Verkäufer hat“, beschwerte sich ein UNIVAC-Manager. [34] Mit dem Tod des Gründervaters Thomas J. Watson Sr. am 19. Juni 1956 im Alter von 82 Jahren erlebte IBM seinen ersten Führungswechsel seit mehr als vier Jahrzehnten. Der Posten des Vorstandsvorsitzenden fiel an seinen ältesten Sohn Thomas J. Watson, Jr., der seit 1952 Präsident von IBM war.

Der neue Vorstandsvorsitzende stand vor einer gewaltigen Aufgabe. Das Unternehmen befand sich mitten in einer Zeit des schnellen technologischen Wandels, in der aufkommende Computertechnologien – elektronische Computer, Magnetbandspeicher, Plattenlaufwerke, Programmierung – neue Wettbewerber und Marktunsicherheiten schufen. Intern wuchs das Unternehmen sprunghaft, was zu organisatorischem Druck und erheblichen Managementherausforderungen führte. Da Watson Jr. die Persönlichkeitskraft fehlte, die Watson Sr. lange Zeit verwendet hatte, um IBM zusammenzuhalten, fragten sich Watson Jr. und seine leitenden Angestellten im privaten Rahmen, ob die neue Generation von Führungskräften der Herausforderung gewachsen war, ein Unternehmen durch diese turbulente Zeit zu führen. [100] "Wir sind", schrieb ein langjähriger IBM-Manager 1956, "in der ernsten Gefahr, unsere "ewigen" Werte zu verlieren, die in elektronischen Tagen ebenso gültig sind wie in mechanischen Zählertagen."

Watson Jr. reagierte, indem er die Organisation nur wenige Monate nach dem Tod seines Vaters drastisch umstrukturierte und eine moderne Managementstruktur schuf, die es ihm ermöglichte, das schnelllebige Unternehmen effektiver zu überwachen. [101] Er kodifizierte bekannte, aber ungeschriebene IBM-Praktiken und -Philosophie in formelle Unternehmensrichtlinien und -programme – wie die drei grundlegenden Überzeugungen von IBM und Open Door and Speak Up! Die vielleicht bedeutendste davon war seine Verkündigung des ersten Briefes zur Gleichstellungspolitik des Unternehmens im Jahr 1953, ein Jahr vor der Entscheidung des Obersten US-Gerichtshofs in Brown vs. Board of Education und 11 Jahre vor dem Civil Rights Act von 1964. [102] Er baute die physischen Fähigkeiten des Unternehmens weiter aus – 1952 gründete IBM San Jose ein Speicherentwicklungslabor, das Pionierarbeit für Plattenlaufwerke leistete. Später folgten größere Anlagen in Rochester, Minnesota, Greencastle, Indiana Kingston, New York und Lexington, Kentucky. Besorgt darüber, dass IBM bei der Anpassung der Transistortechnologie zu langsam war, forderte Watson eine Unternehmensrichtlinie bezüglich ihrer Verwendung, was zu dieser eindeutigen Erklärung zur Produktentwicklung von 1957 führte: "Es soll die Politik von IBM sein, Halbleiterschaltungen in allen Maschinenentwicklungen zu verwenden. Es dürfen keine neuen kommerziellen Maschinen oder Geräte angekündigt werden, die hauptsächlich Röhrenschaltungen verwenden." [103]

Watson Jr. arbeitete auch weiterhin mit der Regierung der Vereinigten Staaten zusammen, um Computerinnovationen voranzutreiben. Das Aufkommen des Kalten Krieges beschleunigte das wachsende Bewusstsein der Regierung für die Bedeutung der digitalen Datenverarbeitung und führte in den 1950er Jahren zu großen vom Verteidigungsministerium unterstützten Computerentwicklungsprojekten. Keines davon war wichtiger als das SAGE-Abfangjäger-Luftverteidigungssystem zur Früherkennung.

Im Jahr 1952 begann IBM mit dem Lincoln Laboratory des MIT zusammenzuarbeiten, um den Entwurf eines Luftverteidigungscomputers abzuschließen. Die Verschmelzung von akademischer und wirtschaftswissenschaftlicher Kultur erwies sich als schwierig, aber im Sommer 1953 erarbeiteten die beiden Organisationen schließlich einen Entwurf, und IBM erhielt im September den Auftrag, zwei Prototypen zu bauen. [104] Im Jahr 1954 wurde IBM als Hauptauftragnehmer für Computerhardware für die Entwicklung von SAGE für die United States Air Force benannt. Durch die Arbeit an diesem riesigen Computer- und Kommunikationssystem erhielt IBM Zugang zu bahnbrechender Forschung, die am Massachusetts Institute of Technology über den ersten digitalen Echtzeitcomputer durchgeführt wurde. Dazu gehörte die Arbeit an vielen anderen Computertechnologie-Fortschritten wie Magnetkernspeicher, ein großes Echtzeit-Betriebssystem, ein integriertes Videodisplay, Lichtpistolen, die erste effektive algebraische Computersprache, Analog-Digital- und Digital-Analog-Wandlung Techniken, digitale Datenübertragung über Telefonleitungen, Duplex, Multiprocessing und geografisch verteilte Netzwerke. IBM baute 56 SAGE-Computer zum Preis von jeweils 30 Millionen US-Dollar und widmete dem Projekt auf dem Höhepunkt des Projekts mehr als 7.000 Mitarbeiter (20 % der damaligen Belegschaft). SAGE hatte die größte Computergröße aller Zeiten und war bis 1984 im Einsatz. [105]

Auf lange Sicht wertvoller als die Gewinne aus staatlichen Projekten war für IBM jedoch der Zugang zu Spitzenforschung an digitalen Computern, die unter militärischer Schirmherrschaft betrieben wurde. IBM versäumte es jedoch, eine noch dominantere Rolle in der aufstrebenden Industrie zu gewinnen, indem es der RAND Corporation die Programmierarbeit für die neuen Computer überließ, denn laut einem Projektteilnehmer, Robert P. Crago, "könnten wir nicht Stellen Sie sich vor, wo wir zweitausend Programmierer bei IBM aufnehmen könnten, wenn dieser Job eines Tages vorbei sein würde, was zeigt, wie gut wir die Zukunft damals verstanden haben." [106] IBM nutzte seine Erfahrung bei der Entwicklung massiver, integrierter Echtzeitnetzwerke mit SAGE, um sein SABRE-Flugreservierungssystem zu entwickeln, das sehr erfolgreich war.

Diese Regierungspartnerschaften, kombiniert mit bahnbrechender Computertechnologieforschung und einer Reihe kommerziell erfolgreicher Produkte (IBMs 700-Serie von Computersystemen, IBM 650, IBM 305 RAMAC (mit Plattenspeicher) und IBM 1401) ermöglichten es IBM, aus den 1950er Jahren als weltweit führendes Technologieunternehmen. Watson Jr. hatte seine Selbstzweifel beantwortet. In den fünf Jahren seit dem Tod von Watson Sr. war IBM zweieinhalb Mal so groß, sein Bestand hatte sich verfünffacht, und von den 6000 in den USA in Betrieb befindlichen Computern waren mehr als 4000 IBM-Maschinen. [107]

Wichtige Ereignisse Bearbeiten

  • 1946: IBM 603. IBM kündigt den IBM 603 Electronic Multiplier an, das erste kommerzielle Produkt mit elektronischen arithmetischen Schaltungen. Der 603 verwendete Vakuumröhren, um die Multiplikation viel schneller durchzuführen als frühere elektromechanische Geräte. Es hatte seine Entwicklung als Teil eines Programms begonnen, um einen "Super-Rechner" herzustellen, der durch den Einsatz von Elektronik schneller als das IBM ASCC von 1944 arbeiten würde. [108]
  • 1946: Schreibmaschine mit chinesischen Schriftzeichen. IBM stellt eine elektrische Schreibmaschine mit chinesischen Schriftzeichen vor, die es einem erfahrenen Benutzer ermöglicht, mit einer Geschwindigkeit von 40 bis 45 chinesischen Wörtern pro Minute zu tippen. Die Maschine verwendet einen Zylinder, auf dem 5.400 ideografische Schriftbilder eingraviert sind. [109]
  • 1946: Erster schwarzer Verkäufer. IBM stellt seinen ersten schwarzen Verkäufer ein, 18 Jahre vor dem Civil Rights Act von 1964. [110]
  • 1948: IBM SSEC. IBMs erste große digitale Rechenmaschine, der Selective Sequence Electronic Calculator, wird angekündigt. Der SSEC ist der erste Computer, der ein gespeichertes Programm modifizieren kann und verfügt über 12.000 Vakuumröhren und 21.000 elektromechanische Relais. [111]
  • 1950er Jahre: Weltraumforschung. Von der Entwicklung ballistischer Tische während des Zweiten Weltkriegs über das Design und die Entwicklung von Interkontinentalraketen bis zum Start und der Verfolgung von Satelliten bis hin zu bemannten Mond- und Shuttle-Raumflügen war IBM Auftragnehmer der NASA und der Luft- und Raumfahrtindustrie. [112]
  • 1952: IBM 701. IBM wirft seinen Hut in den Computer-Business-Ring und stellt den 701 vor, seinen ersten großen elektronischen Computer, der in Serie hergestellt wird. Der 701, IBM-Präsident Thomas J. Watson, Jr., erinnerte sich später daran, "die Maschine, die uns in das Elektronikgeschäft gebracht hat". [113]
  • 1952: Magnetband-Vakuumsäule. IBM stellt die Vakuumsäule für Magnetbandlaufwerke vor, die es ermöglicht, dass empfindliche Magnetbänder zu einem brauchbaren Datenspeichermedium werden. Die Verwendung der Vakuumsäule im IBM 701-System signalisiert den Beginn der Ära der Magnetspeicher, da die Technologie in der gesamten Industrie weit verbreitet ist. [114]
  • 1952: Erstes kalifornisches Forschungslabor. IBM eröffnet sein erstes Labor an der Westküste in San Jose, Kalifornien: das Gebiet, das Jahrzehnte später als "Silicon Valley" bekannt wird. Innerhalb von vier Jahren beginnt das Labor mit der Erfindung der Festplatte einen Namen zu machen. [113]
  • 1953: Brief zur Gleichstellungspolitik. Thomas J. Watson, Jr., veröffentlicht das erste schriftliche Schreiben des Unternehmens zur Gleichstellungspolitik: ein Jahr vor der Entscheidung des Obersten Gerichtshofs der USA im Fall Brown vs. Board of Education und 11 Jahre vor dem Civil Rights Act von 1964. [102]
  • 1953: IBM 650. IBM kündigt die IBM 650 Magnettrommel-Datenverarbeitungsmaschine an, einen elektronischen Computer mittlerer Größe, der sowohl geschäftliche als auch wissenschaftliche Berechnungen verarbeiten kann. Er war ein Hit bei Universitäten und Unternehmen und war der beliebteste Computer der 1950er Jahre. Bis 1962 wurden fast 2.000 IBM 650 vermarktet. [115]
  • 1954: NORC. IBM entwickelt und baut den schnellsten und leistungsstärksten elektronischen Computer seiner Zeit: den Naval Ordnance Research Computer (NORC): für das US Navy Bureau of Ordnance. [116]
  • 1956: Erste magnetische Festplatte. IBM stellt die weltweit erste magnetische Festplatte zur Datenspeicherung vor. Der IBM 305 RAMAC (Random Access Method of Accounting and Control) bietet eine beispiellose Leistung, indem er einen wahlfreien Zugriff auf jedes der Millionen Zeichen ermöglicht, die auf beiden Seiten von 50 Platten mit einem Durchmesser von zwei Fuß verteilt sind. Die in Kalifornien hergestellte erste Festplatte von IBM speicherte etwa 2.000 Datenbits pro Quadratzoll und kostete etwa 10.000 US-Dollar pro Megabyte. Bis 1997 waren die Kosten für die Speicherung eines Megabytes auf etwa zehn Cent gesunken. [117]
  • 1956: Zustimmungsdekret. Das US-Justizministerium erlässt 1956 ein Zustimmungsdekret gegen IBM, um zu verhindern, dass das Unternehmen auf dem Markt für Lochkarten-Tabulatoren und später für elektronische Datenverarbeitungsmaschinen zum Monopol wird. Das Dekret verpflichtet IBM, seine Computer zu verkaufen, zu leasen und Teile für Computer, die nicht mehr im Besitz von IBM sind, zu warten und zu verkaufen. [118]
  • 1956: Corporate Design. Mitte der 1950er Jahre fiel Thomas J. Watson, Jr. auf, wie schlecht IBM mit Corporate Design umging. Er stellte den Designberater Eliot Noyes ein, um die Erstellung eines formellen Corporate Design-Programms zu beaufsichtigen, und beauftragte Noyes mit der Schaffung eines einheitlichen, erstklassigen Erscheinungsbilds bei IBM. In den nächsten zwei Jahrzehnten engagierte Noyes eine Vielzahl einflussreicher Architekten, Designer und Künstler, um IBM Produkte, Strukturen, Exponate und Grafiken zu entwerfen. Die Liste der Noyes-Kontakte umfasst ikonische Persönlichkeiten wie Eero Saarinen, Marcel Breuer, Mies van der Rohe, John Bolles, Paul Rand, Isamu Noguchi und Alexander Calder. [119]
  • 1956: Erstes europäisches Forschungslabor. IBM eröffnet im schweizerischen Zürich sein erstes Forschungslabor ausserhalb der USA. [120]
  • 1956: Besitzerwechsel. Watson Sr. geht in den Ruhestand und übergibt IBM an seinen Sohn, Watson Jr. Senior stirbt kurz darauf. [121]
  • 1956: Williamsburg-Konferenz. Watson Jr. versammelte rund 100 leitende IBM-Führungskräfte zu einem dreitägigen Sondertreffen in Williamsburg, Virginia. Das Treffen führte zu einer neuen Organisationsstruktur, die einen sechsköpfigen Unternehmensleitungsausschuss umfasste und mehr Befugnisse an die Leitung der Geschäftsbereiche delegierte. Es war das erste große Treffen, das IBM jemals ohne Thomas J. Watson Sr. abgehalten hatte, und es markierte das Hervortreten der zweiten Generation von IBM-Führungskräften. [122]
  • 1956: Künstliche Intelligenz. Arthur L. Samuel von IBMs Poughkeepsie, New York, programmiert einen IBM 704, um Dame (englische Dame) zu spielen, indem er eine Methode verwendet, bei der die Maschine aus ihrer eigenen Erfahrung "lernen" kann. Es gilt als das erste "selbstlernende" Programm, eine Demonstration des Konzepts der künstlichen Intelligenz. [123]
  • 1957: FORTRAN. IBM revolutioniert die Programmierung mit der Einführung von FORTRAN (Formula Translator), das bald zur am weitesten verbreiteten Programmiersprache für technische Arbeiten wird. FORTRAN ist nach wie vor die Basis für viele wichtige numerische Analyseprogramme. [124]
  • 1958: SAGEAN/FSQ-7. Der Computer SAGE (Semi-Automatic Ground Environment) AN/FSQ-7 wird im Auftrag des Lincoln Laboratory des MIT für das nordamerikanische Luftverteidigungssystem gebaut. [125]
  • 1958: Verkauf der inländischen IBM Time Equipment Division an Simplex. IBM gibt den Verkauf des inländischen Geschäftsbereichs Time Equipment Division (Clocks et al.) an die Simplex Time Recorder Company bekannt. Der IBM Service für Zeitgeräte wird in die Electric Typewriter Division übertragen. [126]
  • 1958: Programm der offenen Tür. Die Open Door wurde erstmals in den 1910er Jahren von Watson Sr. eingeführt und war eine traditionelle Unternehmenspraxis, die Mitarbeitern bei Beschwerden Anhörungen mit leitenden Angestellten gewährte, bis einschließlich Watson Sr. IBM formalisierte diese Praxis 1958 mit der Schaffung der Programm der offenen Tür. [127]
  • 1959: Sprich! Ein weiteres Beispiel für die Bereitschaft von IBM, Mitarbeiterfeedback einzuholen und darauf zu reagieren, ist das Speak Up! Das Programm wurde zuerst in San Jose erstellt. [128]
  • 1959: IBM 1401. IBM stellt 1401 vor, den ersten Transistor-Computer mit gespeichertem Programm und Kernspeicher für große Mengen. Seine Vielseitigkeit bei der Ausführung von Unternehmensanwendungen aller Art machte ihn Anfang der 1960er Jahre zum beliebtesten Computermodell der Welt. [129]
  • 1959: IBM 1403. IBM stellt den 1403-Kettendrucker vor, der die Ära des Hochgeschwindigkeits- und Massendrucks einläutet. Der 1403 wird bis zum Aufkommen des Laserdrucks in den 1970er Jahren in Bezug auf die Druckqualität nicht übertroffen werden. [130]

1960–1969: Die System/360-Ära, Entbündelung von Software und Diensten Bearbeiten

Am 7. April 1964 führte IBM das revolutionäre System/360 ein, die erste große "Familie" von Computern, die austauschbare Software und Peripheriegeräte verwendet, eine Abkehr von IBMs bestehender Produktlinie inkompatibler Maschinen, von denen jede entwickelt wurde, um kundenspezifische Probleme zu lösen Bedarf. [131] Die Idee einer Allzweckmaschine galt damals als Glücksspiel. [132]

Innerhalb von zwei Jahren wurde der System/360 zum dominierenden Mainframe-Computer auf dem Markt und seine Architektur wurde zu einem De-facto-Industriestandard. In dieser Zeit entwickelte sich IBM von einem mittelständischen Hersteller von Tabelliergeräten und Schreibmaschinen zum weltweit größten Computerunternehmen. [133]

1969 "entbündelte" IBM Software und Dienstleistungen aus dem Hardwareverkauf. Bis zu diesem Zeitpunkt zahlten Kunden für Software oder Dienstleistungen nicht getrennt vom sehr hohen Preis für die Hardware. Die Software wurde ohne Aufpreis zur Verfügung gestellt, in der Regel in Quellcodeform. Dienstleistungen (Systemtechnik, Aus- und Weiterbildung, Systeminstallation) wurden nach Ermessen der IBM Niederlassung kostenlos erbracht. Diese Praxis existierte in der gesamten Branche. Die Entflechtung von IBM wird weithin für das Wachstum der Softwareindustrie verantwortlich gemacht. [134] [135] [136] [137] Nach der Entbündelung wurde IBM-Software in zwei Hauptkategorien unterteilt: System Control Programming (SCP), das für Kunden kostenlos blieb, und Programmprodukte (PP), die kostenpflichtig waren. Dies veränderte das Wertversprechen des Kunden für Computerlösungen und gab etwas, das bisher im Wesentlichen kostenlos war, einen erheblichen monetären Wert. Dies trug dazu bei, die Entwicklung der Softwareindustrie zu ermöglichen. In ähnlicher Weise wurden die IBM Services in zwei Kategorien unterteilt: allgemeine Informationen, die kostenlos blieben und nach Ermessen von IBM bereitgestellt wurden, sowie Unterstützung und Schulung des Kundenpersonals am Arbeitsplatz, die gesondert berechnet wurden und für Nicht- IBM-Kunden. Diese Entscheidung hat den Markt für unabhängige Computerdienstleistungsunternehmen erheblich erweitert.

Mit den Winterspielen 1960 in Squaw Valley, Kalifornien, begann das Unternehmen vier Jahrzehnte olympisches Sponsoring. Es wurde zu einem anerkannten Marktführer im Bereich der sozialen Verantwortung von Unternehmen, trat 1962 den Gleichstellungsprogrammen des Bundes bei, eröffnete 1968 eine innerstädtische Produktionsstätte und gründete ein Minderheitenlieferantenprogramm. Es führte zu Bemühungen, die Datensicherheit zu verbessern und die Privatsphäre zu schützen. Es hat Umweltstandards für Luft- und Wasseremissionen festgelegt, die die gesetzlich vorgeschriebenen übertreffen, und alle Einrichtungen in Übereinstimmung mit diesen Standards gebracht. Es eröffnete in Yorktown, New York, eines der modernsten Forschungszentren der Welt. Seine internationalen Aktivitäten wuchsen schnell und erwirtschafteten Anfang der 1970er Jahre mehr als die Hälfte des Umsatzes von IBM. Sein Personal und seine Technologie spielten eine wesentliche Rolle im Weltraumprogramm und bei der Landung der ersten Menschen auf dem Mond im Jahr 1969. Im selben Jahr änderte es die Art und Weise, wie es seine Technologie an die Kunden vermarktete, entbündelte Hardware von Software und Dienstleistungen und startete effektiv die heutige Multimilliarde -Dollar-Software- und Dienstleistungsindustrie. Siehe Entbündelung von Software und Diensten unten. Es war massiv profitabel, mit einer fast verfünffachten Umsatz- und Ergebnissteigerung in den 1960er Jahren.

1967 kündigte Thomas John Watson, Jr., der seinem Vater als Vorstandsvorsitzender nachfolgte, an, dass IBM in Boca Raton eine große Produktionsstätte eröffnen werde, um seinen mittelgroßen Computer System/360 Model 20 zu produzieren. Am 16. März 1967, eine Schlagzeile in der Boca Raton-Neuigkeiten [138] kündigte an, „IBM wird bis Jahresende 400 einstellen“. Der Plan sah vor, dass IBM Anlagen zur Herstellung von Computern leasen sollte, bis der neue Standort entwickelt werden konnte. Wenige Monate später begann die Einstellung von Auszubildenden in der Montage und Fertigungssteuerung. Juan Rianda von IBM wechselte von Poughkeepsie, New York, um der erste Werksleiter bei IBMs neuem Boca-Betrieb zu werden. Mit der Gestaltung des neuen Campus beauftragte IBM den international renommierten Architekten Marcel Breuer (1902–1981), der eng mit dem amerikanischen Architekten Robert Gatje (1927-2018) zusammenarbeitete. Im September 1967 feierte das Boca-Team einen Meilenstein und lieferte sein erstes IBM System/360 Model 20 an die Stadt Clearwater – den ersten Computer in seiner Produktion. Ein Jahr später wurden IBM 1130 Computing Systems produziert und aus dem Gebäude 203 ausgeliefert. Bis 1969 hatte IBM in Boca 1.000 Mitarbeiter. Die Zahl der Beschäftigten wuchs im nächsten Jahr auf rund 1.300, als der Bereich um ein Labor für Systementwicklungstechnik erweitert wurde.

Wichtige Ereignisse Bearbeiten

  • 1961: IBM 7030 Stretch. IBM liefert seinen ersten 7030 Stretch Supercomputer aus. Stretch verfehlt seine ursprünglichen Designziele und ist kein kommerzieller Erfolg. Aber es ist ein visionäres Produkt, das Pionierarbeit für zahlreiche revolutionäre Computertechnologien leistet, die bald in der Computerindustrie weit verbreitet sind. [139][140]
  • 1961: Thomas J. Watson Forschungszentrum. IBM verlegt seinen Forschungssitz von Poughkeepsie, NY, nach Westchester County, NY und eröffnet das Thomas J. Watson Research Center, das nach wie vor die größte Forschungseinrichtung von IBM mit den Schwerpunkten Halbleiter, Informatik, Physik und Mathematik. Das 1945 an der Columbia University von IBM eingerichtete Labor wurde geschlossen und 1970 in das Labor in Yorktown Heights verlegt. [141]
  • 1961: IBM Selectric Schreibmaschine. IBM stellt die Selectric-Schreibmaschinen-Produktlinie vor. Spätere Selectric-Modelle verfügen über Speicher, was zu den Konzepten der Textverarbeitung und des Desktop-Publishings führte. Die Maschine wurde für ihr Design und ihre Funktionalität mehrfach ausgezeichnet. Selectrics und ihre Nachkommen eroberten schließlich 75 Prozent des US-amerikanischen Marktes für elektrische Schreibmaschinen, die in der Wirtschaft verwendet werden. [142] IBM ersetzte 1984 die Selectric-Linie durch den IBM Wheelwriter und übertrug 1991 sein Schreibmaschinengeschäft an die neu gegründete Lexmark. [143]
  • 1961: Bericht Programmgenerator. IBM bietet seinen Report Program Generator an, eine Anwendung, mit der Benutzer von IBM 1401 Berichte erstellen können. Diese Fähigkeit wurde in der gesamten Industrie weit verbreitet und wurde zu einem Feature, das in nachfolgenden Computergenerationen angeboten wurde. Es spielte eine wichtige Rolle bei der erfolgreichen Einführung von Computern in kleine Unternehmen. [144]
  • 1962: Grundüberzeugungen. Ausgehend von etablierten IBM Richtlinien kodifiziert Thomas J. Watson, Jr. drei grundlegende Überzeugungen von IBM: Respekt für den Einzelnen, Kundenservice und Exzellenz. [145]
  • 1962: SABRE. Zwei IBM 7090 Mainframes bildeten das Rückgrat des SABRE Reservierungssystems für American Airlines. Als erstes Reservierungssystem von Fluggesellschaften, das live über Telefonleitungen funktioniert, verknüpfte SABRE Hochgeschwindigkeitscomputer und Datenkommunikation, um den Sitzbestand und die Passagierdatensätze zu verwalten. [146]
  • 1964: IBM-System/360. In der bisher wichtigsten Produktankündigung der Firmengeschichte stellt IBM das IBM System/360 vor: ein neues Konzept in Computern, das eine "Familie" von kleinen bis großen Computern schafft, die die Mikroelektronik der IBM Solid Logic Technology (SLT) einbezieht und dieselbe verwendet Programmieranweisungen. Das Konzept einer kompatiblen "Familie" von Computern verändert die Branche. [147]
  • 1964: Textverarbeitung. IBM stellt die IBM Magnetic Tape Selectric Typewriter vor, ein Produkt, das bei der Anwendung magnetischer Aufzeichnungsgeräte beim Maschinenschreiben Pionierarbeit leistete und die Desktop-Textverarbeitung hervorbrachte. Damals als "Power-Typing" bezeichnet, verbesserte die Funktion zum Überarbeiten gespeicherter Texte die Effizienz des Büros, indem sie es Schreibkräften ermöglichte, mit "grobem Entwurf"-Geschwindigkeit zu tippen, ohne sich um Fehler sorgen zu müssen. [148]
  • 1964: Neue Konzernzentrale. IBM verlegt seinen Firmensitz von New York City nach Armonk, New York. [149]
  • 1965: Gemini-Raumflüge. Ein 59-Pfund-Bordleitcomputer von IBM wird auf allen Gemini-Raumflügen verwendet, einschließlich des ersten Rendezvous mit Raumschiffen. IBM-Wissenschaftler führen die genaueste Berechnung der Mondbahn durch und entwickeln eine Fertigungstechnik, um Hunderte von Schaltkreisen auf einem Siliziumwafer zu verbinden. [150]
  • 1965: New Yorker Weltausstellung. Der IBM-Pavillon auf der New Yorker Weltausstellung wird geschlossen, nachdem er während seines zweijährigen Bestehens mehr als 10 Millionen Besucher empfangen hat. [151]
  • 1966: Dynamischer Direktzugriffsspeicher (DRAM). IBM erfindet Ein-Transistor-DRAM-Zellen, die eine deutliche Erhöhung der Speicherkapazität ermöglichen. DRAM-Chips werden zur tragenden Säule moderner Computerspeichersysteme: Das „Rohöl“ des Informationszeitalters ist geboren. [152]
  • 1966: IBM System/4 Pi. IBM liefert seinen ersten System/4Pi-Computer aus, der die Anforderungen des US-Verteidigungsministeriums und der NASA erfüllt. Mehr als 9000 Einheiten der 4Pi-Systeme werden bis in die 1980er Jahre für den Einsatz in der Luft, auf See und im Weltraum ausgeliefert. [153]
  • 1966: IBM Informationsmanagementsystem (IMS). IBM entwickelte das Information Management System (IMS) zusammen mit Rockwell und Caterpillar ab 1966 für das Apollo-Programm, wo es zur Bestandsaufnahme der sehr großen Stückliste (BOM) für die Saturn-V-Mondrakete und das Apollo-Raumfahrzeug verwendet wurde.
  • 1967: Fraktale Geometrie. IBM-Forscher Benoit Mandelbrot konzipiert fraktale Geometrie – das Konzept, dass scheinbar unregelmäßige Formen in allen Maßstäben identisch strukturiert sein können. Diese neue Geometrie ermöglicht es, die in der Natur vorkommenden Arten von Unregelmäßigkeiten mathematisch zu beschreiben. Das Konzept hat großen Einfluss auf die Bereiche Ingenieurwesen, Wirtschaft, Metallurgie, Kunst, Gesundheitswissenschaften sowie Computergrafik und Animation. [154]
  • 1968: IBM Customer Information Control System (CICS). IBM führt den CICS-Transaktionsmonitor ein. CICS ist bis heute der beliebteste Transaktionsmonitor der Branche. [155]
  • 1969: Kartellrecht. Die US-Regierung leitet eine 13 Jahre andauernde Kartellklage gegen IBM ein. Die Klage wird zu einem zermürbenden Zermürbungskrieg und wird schließlich 1982 fallen gelassen, [156] nachdem der Anteil von IBM am Mainframe-Markt von 70 % auf 62 % zurückgegangen ist. [157]
  • 1969: Entbündelung. IBM führt eine neue Marketingrichtlinie ein, die für die meisten Systementwicklungsaktivitäten, zukünftige Computerprogramme und Kundenschulungskurse separat berechnet. Durch diese „Entflechtung“ entsteht eine milliardenschwere Software- und Dienstleistungsindustrie. [158]
  • 1969: Magnetstreifenkarten. Das American National Standards Institute macht die von IBM entwickelte Magnetstreifentechnologie zu einem nationalen Standard und startet damit die Kreditkartenindustrie. Zwei Jahre später übernimmt die International Organization for Standardization das IBM-Design und macht es damit zum Weltstandard. [159]
  • 1969: Erste Mondlandung. IBM-Personal und Computer helfen der NASA, die ersten Männer auf dem Mond zu landen.

1970–1974: Die Herausforderungen des Erfolgs Bearbeiten

Das Goldene Jahrzehnt der 1960er Jahre war schwer zu folgen, und die 1970er Jahre begannen beunruhigend, als CEO Thomas J. Watson Jr. 1971 einen Herzinfarkt erlitt und in den Ruhestand ging. Zum ersten Mal seit 1914 – fast sechs Jahrzehnte – IBM hätte keinen Watson an der Spitze. Darüber hinaus würde IBM nach nur einem Führungswechsel in diesen fast 60 Jahren zwei in zwei Jahren durchhalten. T. Vincent Learson folgte Watson als CEO, trat dann 1973 nach Erreichen des obligatorischen Rentenalters von 60 Jahren schnell in den Ruhestand Verarbeitungsabteilung in den 1960er Jahren.

Datamation 1971 stellte fest, dass "die ewige, unheilvolle Kraft namens IBM rollt". [161] Die Dominanz des Unternehmens ließ es die Preise hoch halten und Produkte nur selten aktualisieren, [162] die alle nur mit IBM-Komponenten gebaut wurden. [163] Während Carys Amtszeit als CEO wurde das IBM System/370 1970 als IBMs neuer Mainframe eingeführt. Der S/370 erwies sich als technologisch nicht so revolutionär wie sein Vorgänger System/360. Aus Ertragssicht hat es den Cash-Cow-Status des 360 mehr als aufrechterhalten. [164] Ein weniger erfolgreicher Versuch, die 360-Mainframe-Revolution zu replizieren, war das Future Systems-Projekt. Zwischen 1971 und 1975 untersuchte IBM die Machbarkeit einer neuen revolutionären Produktlinie, die alle bestehenden Produkte obsolet machen sollte, um seine technische Vormachtstellung wiederherzustellen. Diese Bemühungen wurden 1975 vom Top-Management von IBM eingestellt. Aber bis dahin waren die meisten hochrangigen technischen Planungs- und Designressourcen verbraucht, wodurch der Fortschritt der bestehenden Produktlinien gefährdet war (obwohl einige Elemente von FS später in tatsächliche Produkte integriert wurden). . [165] Zu den weiteren IBM-Innovationen in den frühen 1970er Jahren gehörte die IBM 3340-Platteneinheit – eingeführt 1973 und bekannt als „Winchester“ nach dem internen Projektnamen von IBM – war eine fortschrittliche Speichertechnologie, die die Informationsdichte auf Plattenoberflächen mehr als verdoppelte. Die Winchester-Technologie wurde von der Industrie übernommen und in den nächsten zwei Jahrzehnten eingesetzt.

Einige IBM-Technologien aus den 1970er Jahren wurden zu vertrauten Facetten des täglichen Lebens. IBM entwickelte in den 1960er Jahren die Magnetstreifentechnologie, die 1971 zum Standard der Kreditkartenindustrie wurde. Die von IBM erfundene Diskette, ebenfalls 1971 eingeführt, wurde in den ersten Jahrzehnten der PC-Ära zum Standard für die Speicherung von PC-Daten. Der IBM Research-Wissenschaftler Edgar 'Ted' Codd hat eine wegweisende Arbeit über die relationale Datenbank geschrieben, eine Erfindung, die Forbes Magazin als eine der wichtigsten Innovationen des 20. Jahrhunderts bezeichnet. Der IBM 5100, 50 lbs. und 9000 US-Dollar an persönlicher Mobilität, wurde 1975 eingeführt und kündigte – zumindest in Bezug auf die Funktion, wenn nicht Größe oder Preis oder verkaufte Einheiten – den Personal Computer der 1980er Jahre an. Die 1973 eingeführte Supermarktkasse 3660 von IBM nutzte holografische Technologie, um die Produktpreise vom heute allgegenwärtigen UPC-Barcode zu scannen, der selbst auf einem IBM-Patent von 1952 basierte, das zum Lebensmittelindustriestandard wurde. Ebenfalls 1973 begannen Bankkunden, Abhebungen, Überweisungen und andere Kontoanfragen über die IBM 3614 Consumer Transaction Facility, eine frühe Form der heutigen Geldautomaten, vorzunehmen.

IBM spielte eine Innovatorrolle bei weit verbreiteten Technologien, die auch weniger sichtbar waren. 1974 kündigte IBM Systems Network Architecture (SNA) an, ein Netzwerkprotokoll für Computersysteme. SNA ist ein einheitlicher Satz von Regeln und Verfahren für die Computerkommunikation, um Computerbenutzer von der technischen Komplexität der Kommunikation über lokale, nationale und internationale Computernetzwerke zu befreien. SNA wurde das am weitesten verbreitete System für die Datenverarbeitung, bis in den 1990er Jahren weitere offene Architekturstandards verabschiedet wurden. 1975 entwickelte der IBM-Forscher Benoit Mandelbrot die fraktale Geometrie – ein neues geometrisches Konzept, das es ermöglichte, die Arten von Unregelmäßigkeiten in der Natur mathematisch zu beschreiben. Fraktale hatten einen großen Einfluss auf Ingenieurwissenschaften, Wirtschaftswissenschaften, Metallurgie, Kunst- und Gesundheitswissenschaften und sind integraler Bestandteil des Bereichs Computergrafik und Animation.

Ein weniger erfolgreiches Geschäft für IBM war der Eintritt in den Markt für Bürokopierer in den 1970er Jahren, nachdem die Möglichkeit zum Kauf der Xerographie-Technologie abgelehnt wurde. [34] Das Unternehmen wurde sofort von der Xerox Corporation wegen Patentverletzung verklagt. Obwohl Xerox die Patente für die Verwendung von Selen als Fotoleiter hielt, perfektionierten IBM-Forscher die Verwendung organischer Fotoleiter, wodurch die Xerox-Patente vermieden wurden. Der Rechtsstreit dauerte bis Ende der 1970er Jahre und wurde schließlich beigelegt. Trotz dieses Sieges gewann IBM auf dem Kopierermarkt nie an Bedeutung und zog sich in den 1980er Jahren vom Markt zurück. Organische Fotoleiter werden heute häufig in Kopierern verwendet.

Während dieser gesamten Zeit führte IBM die Kartellklage des Justizministeriums im Jahr 1969 durch. Aber in einer verwandten Rechtsprechung wurde der bahnbrechende US-Bundesgerichtsfall Honeywell gegen Sperry Rand im April 1973 abgeschlossen. Das 1964er Patent für die ENIAC , der weltweit erste universelle elektronische Digitalcomputer, wurde aus verschiedenen Gründen für ungültig und nicht durchsetzbar befunden, wodurch die Erfindung des elektronischen Digitalcomputers gemeinfrei wurde. Darüber hinaus wurde entschieden, dass IBM über seine Patentteilungsvereinbarung von 1956 mit Sperry-Rand ein Monopol geschaffen hatte.

Amerikanische Kartellgesetze wirkten sich nicht auf IBM in Europa aus, wo es 1971 [Update] weniger Konkurrenten und mehr als 50% Marktanteil in fast allen Ländern hatte. Kunden bevorzugten IBM, weil es Datamation sagte der nur ein wirklich internationales Computerunternehmen", das Kunden fast überall bedienen kann. Rivalen wie ICL, CII und Siemens begannen zusammenzuarbeiten, um eine europäische Computerindustrie zu erhalten. [161]

Wichtige Ereignisse Bearbeiten

  • 1970: System/370. IBM kündigt System/370 als Nachfolger von System/360 an.
  • 1970: Relationale Datenbanken. IBM führt relationale Datenbanken ein, bei denen die auf einem Computer gespeicherten Informationen in einfach zu interpretierenden Tabellen angeordnet werden müssen, um auf große Datenmengen zugreifen und diese verwalten zu können. Fast alle Datenbankstrukturen basieren heute auf dem IBM Konzept der relationalen Datenbanken.
  • 1970: Bürokopierer. IBM stellt sein erstes von drei Modellen von xerografischen Kopierern vor. Diese Maschinen markieren den ersten kommerziellen Einsatz organischer Fotoleiter, die sich seitdem zur dominierenden Technologie entwickelt haben.
  • 1971: Spracherkennung. IBM realisiert seine erste operative Anwendung der Spracherkennung, die es Technikern ermöglicht, mit einem Computer zu sprechen und gesprochene Antworten von diesem zu empfangen, der etwa 5.000 Wörter erkennt. Heute verfügt die ViaVoice-Erkennungstechnologie von IBM über einen Wortschatz von 64.000 Wörtern und ein Backup-Wörterbuch mit 260.000 Wörtern. [166]
  • 1971: Diskette. IBM stellt die Diskette vor. Die Diskette ist praktisch und in hohem Maße tragbar und wird zu einem Industriestandard für Personalcomputer zum Speichern von Daten. [167]
  • 1973: Winchester Lagertechnik. Die IBM 3340 Disk Unit – bekannt als „Winchester“ nach dem internen Projektnamen von IBM – wird eingeführt, eine fortschrittliche Technologie, die die Informationsdichte auf Disk-Oberflächen mehr als verdoppelt hat. Es verfügte über einen kleineren, leichteren Lese-/Schreibkopf, der für die Fahrt auf einem Luftfilm mit einer Dicke von nur 18 Millionstel Zoll ausgelegt war. Die Winchester-Technologie wurde von der Industrie übernommen und in den nächsten zwei Jahrzehnten eingesetzt. [168]
  • 1973: Nobelpreis. Dr. Leo Esaki, ein IBM Fellow, der 1960 in das Unternehmen eintrat, erhält 1973 den Nobelpreis für Physik für seine Entdeckung des Phänomens des Elektronentunnelns im Jahr 1958. Seine Entdeckung des Halbleiterübergangs namens Esaki-Diode findet breite Anwendung in elektronischen Anwendungen. Noch wichtiger ist, dass seine Arbeit auf dem Gebiet der Halbleiter den Grundstein für die weitere Erforschung des elektronischen Transports von Festkörpern legt. [169]
  • 1974: SNA. IBM kündigt Systems Network Architecture (SNA) an, ein Netzwerkprotokoll für Computersysteme. SNA ist ein einheitliches Regelwerk und Verfahren für die Computerkommunikation, um Computerbenutzer von der technischen Komplexität der Kommunikation über lokale, nationale und internationale Computernetzwerke zu befreien. SNA wurde das am weitesten verbreitete System für die Datenverarbeitung, bis in den 1990er Jahren weitere offene Architekturstandards verabschiedet wurden. [170]

1975–1992: Informationsrevolution, Aufstieg der Software- und PC-Industrie Bearbeiten

Jahr Bruttoeinkommen (in Mio. $) Mitarbeiter
1975 14,430 288,647
1980 26,210 341,279
1985 50,050 405,535
1990 69,010 373,816
1995 71,940 225,347

Der Präsident von IBM John R. Opel wurde 1981 CEO. [171] Sein Unternehmen war eines der größten der Welt und hatte in diesem Jahr einen Anteil von 62 % am Mainframe-Computermarkt. [157] Während häufig umgesiedelte Mitarbeiter und Familien immer noch scherzten, dass IBM für "I've Been Moved" stehe, und Mitarbeiter von Akquisitionen befürchteten, dass Horden formeller IBM-Mitarbeiter in ihre eher legeren Büros eindringen würden, [172] benötigte IBM keine weißen Hemden mehr für männliche Mitarbeiter, die bei Kundengesprächen noch konservative Anzüge trugen. Ehemalige Mitarbeiter wie Gene Amdahl nutzten ihre Ausbildung, um viele Wettbewerber [34] und Lieferanten zu gründen und zu führen. [173]

In Erwartung der japanischen Konkurrenz begann IBM in den späten 1970er Jahren in die Fertigung zu investieren, um Kosten zu senken, Großkunden Mengenrabatte und niedrigere Preise anzubieten und häufiger neue Produkte auf den Markt zu bringen. [162] Das Unternehmen verwendete manchmal auch Nicht-IBM-Komponenten in Produkten [163] und verkaufte manchmal die Produkte anderer als seine eigenen. [174] 1980 stellte es sein erstes Computerterminal vor, das mit Nicht-IBM-Geräten kompatibel war, [175] und Displaywriter war das erste neue Produkt, das weniger teuer war als die Konkurrenz. [157] Der Anteil von IBM am gesamten Computermarkt ging jedoch von 60 % im Jahr 1970 auf 32 % im Jahr 1980 zurück. [176] Vielleicht abgelenkt durch die langjährige Kartellklage, [34] verfehlte der „Koloss von Armonk“ die schnell wachsender Minicomputermarkt in den 1970er Jahren [174] [177] [178] [179] und lag in anderen Bereichen hinter Konkurrenten wie Wang, Hewlett-Packard (HP) und Control Data zurück. [176]

1979 Arbeitswoche fragte: "Ist IBM nur ein weiteres langweiliges, ausgereiftes Unternehmen?" Bis 1981 war der Aktienkurs um 22% gefallen. [176] Die Gewinne von IBM im ersten Halbjahr stiegen um 5,3% – ein Drittel der Inflationsrate –, während die des Minicomputerherstellers Digital Equipment Corporation (DEC) um mehr als 35% wuchsen. [175] Das Unternehmen begann mit dem Verkauf von Minicomputern, [180] aber im Januar 1982 beendete das Justizministerium die Kartellklage, weil Die New York Times berichtete, die Regierung habe "anerkannt, was Computerexperten und Wertpapieranalysten längst zu dem Schluss gekommen waren: I.B.M. beherrscht das Computergeschäft nicht mehr". [157]

IBM wollte das gleiche Ergebnis mit der neuen PC-Industrie vermeiden. [179] Das Unternehmen untersuchte den Markt jahrelang und wie bei UNIVAC stiegen andere wie Apple Computer zuerst ein. [34] IBM wollte kein Produkt mit dem Logo eines Konkurrenten auf den Schreibtischen von Firmenkunden. [181] Das Unternehmen eröffnete im November 1980 sein erstes Einzelhandelsgeschäft, [182] und ein Team im Büro von Boca Raton, Florida, baute den IBM PC mit handelsüblichen Komponenten. Der neue Computer debütierte am 12. August 1981 [163] von der Entry Systems Division unter der Leitung von Don Estridge. Dank der denkwürdigen Werbekampagne Little Tramp wurde IBM sofort stärker auf dem Verbrauchermarkt präsent. Obwohl dies keine spektakuläre Maschine nach damaligen technischen Standards war, vereinte der IBM PC alle wünschenswerten Funktionen eines Computers in einer kleinen Maschine. Es hatte 128 Kilobyte Speicher (erweiterbar auf 256 Kilobyte), eine oder zwei Disketten und einen optionalen Farbmonitor. Und es hatte das Prestige der Marke IBM. Es war nicht billig, aber mit einem Grundpreis von 1.565 US-Dollar für Unternehmen erschwinglich – und viele Unternehmen kauften PCs. Beruhigt durch den Namen IBM, begannen sie, Mikrocomputer für ihr eigenes Budget zu kaufen, die auf zahlreiche Anwendungen abzielten, die die Computerabteilungen der Unternehmen nicht unterstützen konnten und in vielen Fällen nicht bewältigen konnten. Normalerweise wurden diese Käufe nicht von Computerabteilungen von Unternehmen getätigt, da der PC nicht als "richtiger" Computer angesehen wurde. Käufe wurden oft von mittleren Managern und leitenden Angestellten veranlasst, die das Potenzial erkannten – nachdem die revolutionäre VisiCalc-Tabelle, die Killer-App, von einem weitaus leistungsfähigeren und stabileren Produkt, Lotus 1-2-3, übertroffen worden war.

Die Dominanz von IBM auf dem Mainframe-Markt in Europa und den USA ermutigte bestehende Kunden, den PC zu kaufen, [181] [183] ​​und umgekehrt, da der Verkauf eines Experiments in einem neuen Markt zu einem wesentlichen Bestandteil der Finanzwerte von IBM wurde fanden heraus, dass Kunden auch größere IBM-Computer kauften. [184] [177] [172] Im Gegensatz zu BUNCH und anderen Konkurrenten hat sich IBM schnell auf den Einzelhandelsmarkt eingestellt, [181] [185] mit einem eigenen Vertriebsteam, das erstmals mit externen Einzelhändlern konkurriert. [172] 1985 war IBM das profitabelste Industrieunternehmen der Welt, [172] und der Absatz von Personalcomputern war größer als der von Minicomputern, obwohl er seit den frühen 1970er Jahren auf dem letztgenannten Markt vertreten war. [180]

1983 warnte der Branchenanalyst Gideon Gartner, dass IBM "eine gefährliche Situation für Konkurrenten auf dem Markt schafft". [34] Das Unternehmen half anderen, indem es technische Standards definierte und große neue Softwaremärkte schuf, [184] [186] [162] aber die neue Aggressivität, die in den späten 1970er Jahren begann, half ihm, Bereiche wie Computerleasing und computergestütztes Design zu dominieren. [162] IBM war ohne Kartellverfahren auf allen Computermärkten außer Supercomputern präsent und stieg in die Kommunikation ein [186] durch den Kauf von Rolm – der ersten Übernahme seit 18 Jahren – und 18 % von MCI. [172] Das Unternehmen war für die Zulieferer so wichtig, dass es sie zur Diversifizierung drängte. Als IBM (61% des Umsatzes) abrupt die Bestellungen von Miniscribe-Aktien nicht nur von Miniscribe, sondern auch von unbeteiligten Unternehmen, die an IBM verkauften, reduzierte, fielen die Anleger, die ihre Verwundbarkeit befürchteten. [173] IBM war auch verwundbar, wenn Lieferanten Bestellungen nicht erfüllen konnten. [187] Kunden und Händler befürchteten ebenfalls eine übermäßige Abhängigkeit. [181] [162]

Das Debüt des IBM PC AT im Jahr 1984 erschütterte die Branche. Rivalen gaben zu, mit dem niedrigen Preis des ausgeklügelten Produkts nicht gerechnet zu haben. Der Angriff von IBM auf alle Bereiche der Computerindustrie und der Einstieg in die Kommunikation veranlassten Wettbewerber, Analysten und die Presse zu Spekulationen, dass es erneut wegen Kartellrechtsverklagten gehen würde. [188] [189] [172] Datamation und andere sagten, dass das anhaltende Wachstum des Unternehmens den Vereinigten Staaten schaden könnte, indem Start-ups mit neuen Technologien unterdrückt würden. [162] Gartner Group schätzte 1985, dass IBM von den 100 größten Datenverarbeitungsunternehmen 41% aller Einnahmen und 69% des Gewinns hatte. Der Computerumsatz war etwa neunmal höher als der des zweitplatzierten DEC und höher als der der sechs größten japanischen Konkurrenten von IBM zusammen. Die Gewinnmarge von 22 % war dreimal so hoch wie der Durchschnitt von 6,7 % für die anderen 99 Unternehmen. Konkurrenten beschwerten sich beim Kongress, ADAPSO diskutierte das Unternehmen mit dem Justizministerium und europäische Regierungen machten sich Sorgen über den Einfluss von IBM, befürchteten jedoch, die mehr als 100.000 Mitarbeiter dort in 19 Einrichtungen zu beeinträchtigen. [162]

Das Unternehmen verlor jedoch bald seinen Vorsprung sowohl bei der PC-Hardware als auch bei der PC-Software, zum Teil dank seiner beispiellosen (für IBM) Entscheidung, PC-Komponenten an externe Unternehmen wie Microsoft und Intel zu vergeben. Bis zu diesem Zeitpunkt in seiner Geschichte stützte sich IBM auf eine vertikal integrierte Strategie und baute die meisten Schlüsselkomponenten seiner Systeme selbst, einschließlich Prozessoren, Betriebssysteme, Peripheriegeräte, Datenbanken und dergleichen. Um die Markteinführungszeit für den PC zu verkürzen, entschied sich IBM, kein proprietäres Betriebssystem und keinen Mikroprozessor zu bauen. Stattdessen bezog es diese wichtigen Komponenten von Microsoft bzw. Intel. Ironischerweise war es in einem Jahrzehnt, das das Ende des IBM-Monopols markierte, diese schicksalhafte Entscheidung von IBM, die die Quellen seiner monopolistischen Macht (Betriebssystem und Prozessorarchitektur) an Microsoft und Intel weitergab und den Weg für den Aufstieg von PC-kompatiblen und Schaffung von Hunderten von Milliarden Dollar an Marktwert außerhalb von IBM.

1985 wurde John Akers CEO von IBM. In den 1980er Jahren brachte IBM mit seinen erheblichen Investitionen in den Aufbau einer Weltklasse-Forschungsorganisation vier Nobelpreisträger in Physik hervor, erzielte Durchbrüche in Mathematik, Speicher und Telekommunikation und machte große Fortschritte bei der Erweiterung der Computerkapazitäten. 1980 führte die Legende von IBM Research, John Cocke, die Reduced Instruction Set Technology (RISC) ein. Cocke erhielt sowohl die National Medal of Technology als auch die National Medal of Science für seine Innovation, aber IBM selbst erkannte die Bedeutung von RISC nicht und verlor die Führung in der RISC-Technologie an Sun Microsystems. 1984 ging das Unternehmen eine Partnerschaft mit Sears ein, um einen bahnbrechenden Online-Homebanking- und -Shopping-Service für Heim-PCs zu entwickeln, der 1988 als Prodigy auf den Markt kam. Trotz eines guten Rufs und der Vorwegnahme vieler Features, Funktionen und Technologien, die das Online-Erlebnis von heute prägen, wurde das Unternehmen von äußerst konservativen Managemententscheidungen geplagt und schließlich Mitte der 1990er Jahre verkauft. Das 1985 eingeführte IBM Token-Ring Local Area Network ermöglichte es PC-Benutzern, Informationen auszutauschen und Drucker und Dateien innerhalb eines Gebäudes oder Komplexes gemeinsam zu nutzen. 1988 gründete IBM in Zusammenarbeit mit der University of Michigan und MCI Communications das National Science Foundation Network (NSFNet), ein wichtiger Schritt bei der Entwicklung des Internets. Aber innerhalb von fünf Jahren zog sich das Unternehmen von diesem frühen Vorsprung bei Internet-Protokollen und Router-Technologien zurück, um seine bestehende SNA-Cashcow zu unterstützen, und verpasste damit einen Boom-Markt der 1990er Jahre. Dennoch schufen IBM Investitionen und Fortschritte in Mikroprozessoren, Plattenlaufwerken, Netzwerktechnologien, Softwareanwendungen und Online-Handel in den 1980er Jahren die Voraussetzungen für die Entstehung der vernetzten Welt in den 1990er Jahren.

Aber am Ende des Jahrzehnts steckte IBM eindeutig in Schwierigkeiten. Es war eine aufgeblähte Organisation von etwa 400.000 Mitarbeitern, die stark in transaktionale Rohstoffunternehmen mit geringen Gewinnspannen investiert war. Technologien, die IBM erfunden und/oder vermarktet hat – DRAM, Festplatten, der PC, elektrische Schreibmaschinen – begannen zu erodieren. Das Unternehmen hatte eine massive internationale Organisation, die durch redundante Prozesse und Funktionen gekennzeichnet war – seine Kostenstruktur konnte mit kleineren, weniger diversifizierten Wettbewerbern nicht konkurrieren. Und dann haben die aufeinanderfolgenden Revolutionen – der PC und der Client-Server – das Undenkbare bewirkt. Sie haben sich zusammengetan, um das Kerngeschäft von IBM mit Mainframes dramatisch zu untergraben. Die PC-Revolution brachte Computer direkt in die Hände von Millionen von Menschen. Es folgte die Client/Server-Revolution, bei der versucht wurde, all diese PCs (die "Clients") mit größeren Computern zu verbinden, die im Hintergrund arbeiteten (die "Server", die Daten und Anwendungen für Client-Rechner bereitstellten).Beide Revolutionen veränderten die Art und Weise, wie Kunden Technologie sahen, nutzten und kauften. Und beide haben IBM grundlegend erschüttert. Die Kaufentscheidungen von Unternehmen wurden in die Hände von Einzelpersonen und Abteilungen gelegt – nicht den Orten, an denen IBM langjährige Kundenbeziehungen unterhielt. Teiltechnologien hatten Vorrang vor integrierten Lösungen. Der Fokus lag auf der Desktop- und persönlichen Produktivität, nicht auf Geschäftsanwendungen im gesamten Unternehmen. Infolgedessen sanken die Einnahmen, die seit Anfang der 1980er Jahre bei oder über 5 Milliarden US-Dollar gelegen hatten, um mehr als ein Drittel auf 3 Milliarden US-Dollar im Jahr 1989. Ein kurzer Gewinnanstieg im Jahr 1990 erwies sich als illusorisch, da sich die Unternehmensausgaben weiterhin von hohen -Großrechner mit Gewinnmarge zu mikroprozessorbasierten Systemen mit niedrigeren Gewinnspannen. Darüber hinaus war der Unternehmensabbau in vollem Gange.

Akers versuchte die Blutung zu stoppen – verzweifelte Schritte und radikale Veränderungen wurden überlegt und umgesetzt. Als IBM die Situation bewertete, war klar, dass Wettbewerb und Innovation in der Computerindustrie nun entlang segmentierter statt vertikal integrierter Linien stattfanden, bei denen Marktführer in ihren jeweiligen Bereichen hervortraten. Beispiele waren Intel bei Mikroprozessoren, Microsoft bei Desktop-Software, Novell bei Netzwerken, HP bei Druckern, Seagate bei Festplatten und Oracle Corporation bei Datenbanksoftware. Die Dominanz von IBM bei Personal Computern wurde von Leuten wie Compaq und später Dell in Frage gestellt. In Anerkennung dieses Trends begann das Management mit Unterstützung des Board of Directors mit der Umsetzung eines Plans zur Aufteilung von IBM in zunehmend autonome Geschäftsbereiche (z. B. Prozessoren, Speicher, Software, Services, Drucker usw.), um effektiver mit Wettbewerbern zu konkurrieren waren fokussierter und wendiger und hatten niedrigere Kostenstrukturen.

IBM begann auch, Geschäfte abzustoßen, von denen es glaubte, dass sie nicht mehr zum Kerngeschäft gehörten. Es verkaufte sein Schreibmaschinen-, Tastatur- und Druckergeschäft – die Organisation, die in den 1960er Jahren die beliebte Schreibmaschine „Selectric“ mit ihrem schwebenden Element vom Typ „Golfball“ schuf – an die Investmentfirma Clayton, Dubilier & Rice Inc. und wurde unabhängig Unternehmen, Lexmark Inc.

Diese Bemühungen konnten die Rutschung nicht aufhalten. Ein Jahrzehnt der stetigen Akzeptanz und des wachsenden Unternehmenswachstums der Local Area Networking-Technologie, ein Trend, der von Novell Inc. und anderen Anbietern angeführt wurde, und sein logisches Gegenstück, der daraus resultierende Rückgang der Mainframe-Verkäufe, brachten IBM einen Weckruf. Nach zwei aufeinanderfolgenden Jahren mit Verlusten von mehr als 1 Milliarde US-Dollar gab IBM am 19. Januar 1993 einen Verlust von 8,10 Milliarden US-Dollar für das Geschäftsjahr 1992 bekannt, der damals der größte einjährige Unternehmensverlust in der Geschichte der USA war. [190] Insgesamt verzeichnete das Unternehmen zwischen 1991 und 1993 Nettoverluste von fast 16 Milliarden US-Dollar. Das drei Jahrzehnte lange Goldene Zeitalter von IBM, das in den 1950er Jahren von Watson Jr. ausgelöst wurde, war vorbei. Die Computerindustrie betrachtete IBM nun als nicht mehr relevant, einen Organisations-Dinosaurier. Und Hunderttausende IBMer verloren ihre Jobs, darunter auch CEO John Akers.

Wichtige Ereignisse Bearbeiten

  • Mitte der 1970er Jahre: IBM VNET. VNET war ein internationales Computernetzwerksystem, das Mitte der 1970er Jahre eingeführt wurde und E-Mail- und Dateiübertragung für IBM ermöglichte. Bis September 1979 war das Netzwerk auf 285 Mainframe-Knoten in Europa, Asien und Nordamerika angewachsen.
  • 1975: Fraktale. Der IBM-Forscher Benoit Mandelbrot konzipiert fraktale Geometrie – das Konzept, dass scheinbar unregelmäßige Formen in allen Maßstäben eine identische Struktur haben können. Diese neue Geometrie ermöglicht es, die in der Natur vorkommenden Arten von Unregelmäßigkeiten mathematisch zu beschreiben. Fraktale haben später einen großen Einfluss auf die Ingenieurwissenschaften, die Wirtschaftswissenschaften, die Metallurgie, die Kunst und die Gesundheitswissenschaften und werden auch im Bereich der Computergrafik und Animation angewendet. [191]
  • 1975: IBM 5100 Tragbarer Computer. IBM stellt den 5100 Portable Computer vor, einen 50-Pfund-Desktop-Computer, der Ingenieuren, Analysten, Statistikern und anderen Problemlösern Computerfunktionen zur Verfügung stellt. Das 5100 ist eher "tragbar" als tragbar, kann als Terminal für das System/370 dienen und kostet zwischen 9000 und 20.000 US-Dollar. [192]
  • 1976: Raumfähre. Die Enterprise, das erste Fahrzeug im US-Space-Shuttle-Programm, debütiert in Palmdale, Kalifornien, und trägt IBM AP-101-Flugcomputer und spezielle Hardware von IBM.
  • 1976: Laserdrucker. Der erste IBM 3800-Drucker wird installiert. Der 3800 ist der erste Akzidenzdrucker, der Lasertechnologie und Elektrofotografie kombiniert. Die Technologie beschleunigt das Drucken von Kontoauszügen, Prämienmitteilungen und anderen hochvolumigen Dokumenten und bleibt ein Arbeitspferd für die Rechnungs- und Debitorenbuchhaltung. [193]
  • 1977: Datenverschlüsselungsstandard. Der von IBM entwickelte Data Encryption Standard (DES), ein kryptografischer Algorithmus, wird vom US-amerikanischen National Bureau of Standards als nationaler Standard übernommen. [194]
  • 1979: Einzelhandelskasse. IBM entwickelt den Universal Product Code (UPC) in den 1970er Jahren als Methode zum Einbetten von Preis- und Identifikationsinformationen in einzelne Einzelhandelsartikel. 1979 wendet IBM holografische Scannertechnologie in der Supermarktkasse von IBM an, um die UPC-Streifen auf Waren zu lesen, eine der ersten großen kommerziellen Anwendungen der Holografie. Die Unterstützung des UPC-Konzepts durch IBM trägt dazu bei, dass es im Einzelhandel und in anderen Branchen weltweit akzeptiert wird. [195]
  • 1979: Dünnfilm-Aufzeichnungsköpfe. Anstatt handgewickelte Drahtstrukturen als Spulen für induktive Elemente zu verwenden, ersetzen IBM-Forscher Dünnfilm-"Drähte", die durch optische Lithographie strukturiert sind. Dies führt zu leistungsstärkeren Aufzeichnungsköpfen zu geringeren Kosten und begründet IBMs führende Position bei der "Flächendichte": Speicherung der meisten Daten auf kleinstem Raum. Das Ergebnis sind Festplatten mit höherer Kapazität und höherer Leistung. [196]
  • 1979: Überwindung von Barrieren bei der Technologienutzung. Seit 1946, mit der Ankündigung chinesischer und arabischer Schreibmaschinen mit ideografischen Zeichen, hat IBM daran gearbeitet, kulturelle und physische Barrieren für den Einsatz von Technologie zu überwinden. Als Teil dieser laufenden Bemühungen stellt IBM das 3270 Kanji Display Terminal, das System/34 Kanji System mit einer ideografischen Funktion vor, das mehr als 11.000 japanische und chinesische Zeichen verarbeitet, sowie die Audio Typing Unit für sehbehinderte Schreibkräfte.
  • 1979: Erster Multifunktions-Kopierer/Drucker. Eine kommunikationsfähige Kombination aus Laserdrucker und Fotokopierer wurde eingeführt, der IBM 6670 Information Distributor. Dies war das erste Multifunktionsgerät (Kopierer/Drucker) für den Büromarkt.
  • 1980: Wärmeleitmodule. IBM stellt den 3081-Prozessor vor, den bisher leistungsstärksten Prozessor des Unternehmens, der mit Wärmeleitmodulen ausgestattet ist. Im Jahr 1990 vergibt das Institute of Electrical and Electronics Engineers, Inc. seine Anerkennung für Unternehmensinnovationen 1990 an IBM für die Entwicklung des mehrschichtigen keramischen Wärmeleitungsmoduls für Hochleistungscomputer. [197]
  • 1980: Reduzierte Instruction Set Computing (RISC)-Architektur. IBM baut erfolgreich den ersten Prototyp-Computer, der die RISC-Architektur von IBM Fellow John Cocke verwendet. RISC vereinfachte die Anweisungen an Computer und machte sie schneller und leistungsfähiger. Heute ist die RISC-Architektur die Grundlage der meisten Workstations und wird weithin als die dominierende Computerarchitektur angesehen. [198]
  • 1981: IBM-PC. Der IBM Personal Computer wird massentauglich und trägt dazu bei, die Art und Weise, wie die Welt Geschäfte abwickelt, zu revolutionieren. Ein Jahr später, Zeitmagazin verleiht dem Personal Computer die Auszeichnung "Person des Jahres". [199]
  • 1981: LASIK-Operation. Drei IBM-Wissenschaftler erfinden das Excimer-Laser-Chirurgieverfahren, das später die Grundlage der LASIK- und PRK-Augenkorrekturen bildet. [200]
  • 1982: Kartellklage. Die 1969 eingereichte US-Kartellklage gegen IBM wird als "unbegründet" abgewiesen. [201]
  • 1982: Trellis-codierte Modulation. Trellis-codierte Modulation (TCM) wird zuerst in Sprachbandmodems verwendet, um Daten mit höheren Raten über Telefonkanäle zu senden. Heute wird TCM in einer Vielzahl terrestrischer und satellitengestützter Übertragungssysteme als Schlüsseltechnik für eine schnellere und zuverlässigere digitale Übertragung eingesetzt. [202]
  • 1983: IBM PCjr. IBM kündigt den mit Spannung erwarteten PCjr. an, den Versuch von IBM, in den Heimcomputermarkt einzusteigen. Das Produkt kann jedoch aufgrund seiner fehlenden Kompatibilität mit IBM PC-Software, seines höheren Preises und seines unglücklichen Chiclet-Tastaturdesigns nicht die Aufmerksamkeit der Verbraucher auf sich ziehen. IBM stellt das Produkt nach 18 Monaten enttäuschender Verkaufszahlen ein. [203]
  • 1984: IBM 3480 Magnetbandsystem. Das fortschrittlichste Magnetbandsystem der Branche, das IBM 3480, führt eine neue Generation von Bandlaufwerken ein, die die bekannte Bandspule durch eine einfach zu handhabende Kassette ersetzen. Das 3480 war das erste Bandsystem der Branche, das die "Dünnfilm"-Aufzeichnungskopftechnologie verwendet.
  • 1984: Sexuelle Diskriminierung. IBM fügt der Nichtdiskriminierungsrichtlinie des Unternehmens die sexuelle Orientierung hinzu. IBM ist eines der ersten großen Unternehmen, das diesen Wandel vollzieht. [204]
  • 1984: ROLM-Partnerschaft/Übernahme. IBM übernimmt die ROLM Corporation für 1,25 Milliarden US-Dollar. [172] Mit Sitz in Santa Clara, CA (nach einer bestehenden Partnerschaft), [205] beabsichtigte IBM, digitale Telefonvermittlungen zu entwickeln, um direkt mit Northern Telecom und AT&T zu konkurrieren. [206] Zwei der beliebtesten Systeme waren die großen PABX-geprägten ROLM CBX und die kleineren PABX-geprägten ROLM Redwood. 1989–1992 wird ROLM von der Siemens AG übernommen. [207][208]
  • 1985: MCI. Im Juni 1985 erwirbt IBM 18 % von MCI Communications, dem zweitgrößten Fernnetzbetreiber der USA. [172]
  • 1985: RP3. Teilweise ausgelöst durch nationale Bedenken über den Verlust seiner Technologieführerschaft in den frühen 1980er Jahren betritt IBM mit dem RP3 (IBM Research Parallel Processor Prototype) wieder das Feld der Supercomputer. IBM-Forscher arbeiteten mit Wissenschaftlern des Courant Institute of Mathematical Science der New York University zusammen, um RP3 zu entwickeln, einen experimentellen Computer, der aus bis zu 512 Prozessoren besteht, die parallel verbunden und mit bis zu zwei Milliarden Zeichen Hauptspeicher verbunden sind. In den nächsten fünf Jahren stellt IBM mehr als 30 Millionen US-Dollar an Produkten und Support für eine Supercomputer-Einrichtung bereit, die an der Cornell University in Ithaca, New York, errichtet wurde. [209]
  • 1985: Token-Ring-Netzwerk. Die Token Ring-Technologie von IBM bringt eine neue Ebene der Kontrolle in lokale Netzwerke und wird schnell zu einem Industriestandard für Netzwerke, die Drucker, Workstations und Server verbinden. [210]
  • 1986: IBM Almaden-Forschungszentrum. IBM Research weiht das Almaden Research Center in Kalifornien ein. Heute ist Almaden das zweitgrößte Labor von IBM mit den Schwerpunkten Speichersysteme, Technologie und Informatik. [211]
  • 1986: Nobelpreis: Rastertunnelmikroskopie. IBM FellowsGerd K. Binnig und Heinrich Rohrer vom IBM Forschungslabor Zürich erhalten 1986 den Nobelpreis für Physik für ihre Arbeiten zur Rastertunnelmikroskopie. Drs. Binnig und Rohrer sind für die Entwicklung einer leistungsstarken Mikroskopietechnik bekannt, die es Wissenschaftlern ermöglicht, Bilder von Oberflächen so detailliert zu machen, dass einzelne Atome zu sehen sind. [212]
  • 1987: Nobelpreis: Hochtemperatur-Supraleitung. J. Georg Bednorz und IBM Fellow Alex Müller vom IBM Forschungslabor Zürich erhalten 1987 den Nobelpreis für Physik für ihre bahnbrechende Entdeckung der Hochtemperatur-Supraleitung in einer neuen Materialklasse. Sie entdecken Supraleitung in keramischen Oxiden, die bei viel höheren Temperaturen Strom ohne Energieverlust transportieren als jeder andere Supraleiter. [213]
  • 1987: Antivirus-Tools. Da PCs durch Viren anfällig werden, entwickelt eine kleine Forschungsgruppe bei IBM praktisch über Nacht eine Reihe von Antiviren-Tools. Die Bemühungen führen zur Gründung des High Integrity Computing Laboratory (HICL) bei IBM. HICL ist weiterhin Pionier in der Wissenschaft der theoretischen und beobachtenden Computervirus-Epidemiologie. [214]
  • 1987: Zugang für besondere Bedürfnisse. IBM-Forscher demonstrieren die Möglichkeit für blinde Computerbenutzer, Informationen mit Hilfe einer experimentellen Maus direkt von Computerbildschirmen abzulesen. Und 1988 wird der IBM Personal System/2 Screen Reader angekündigt, der es blinden oder sehbehinderten Menschen ermöglicht, den auf dem Bildschirm angezeigten Text so zu hören, wie ihn sehende Personen sehen würden. Dies ist das erste Produkt der IBM Independence Series für Computerbenutzer mit besonderen Bedürfnissen. [215]
  • 1988: IBM AS/400. IBM stellt das IBM Application System/400 (AS/400) vor, eine neue Familie benutzerfreundlicher Computer für kleine und mittelständische Unternehmen. Als Teil der Einführung kündigen IBM und IBM Business Partner weltweit mehr als 1.000 Softwarepakete in der größten gleichzeitigen Anwendungsankündigung in der Computergeschichte an. Das AS/400 wird schnell zu einem der beliebtesten Business-Computing-Systeme der Welt. [216]
  • 1988: National Science Foundation Network (NSFNET). IBM arbeitet mit dem Merit Network, MCI Communications, dem Staat Michigan und der National Science Foundation zusammen, um das 56K-Bit-pro-Sekunde-NSFNET auf 1,5 Mbit/s (T1) und später auf 45 Mbit/s (T3) zu aktualisieren und zu erweitern. Diese Partnerschaft stellt die Netzinfrastruktur bereit und legt den Grundstein für das explosive Wachstum des Internets in den 1990er Jahren. Das NSFNET-Upgrade erhöht die Netzwerkkapazität, macht es nicht nur schneller, sondern ermöglicht auch die Übertragung intensiverer Datenformen, wie beispielsweise die im World Wide Web heute üblichen Grafiken, über das Internet. [217]
  • 1989: Silizium-Germanium-Transistoren. Der von IBM Fellow Bernie Meyerson verfochtene Ersatz teurer und exotischer Materialien wie Galliumarsenid durch Siliziumgermanium (bekannt als SiGe) führt zu schnelleren Chips zu geringeren Kosten. Das Einbringen von Germanium in die Basisschicht eines ansonsten ausschließlich aus Silizium bestehenden Bipolartransistors ermöglicht signifikante Verbesserungen der Betriebsfrequenz, des Stroms, des Rauschens und der Leistungsfähigkeit. [218]
  • 1990: System/390. IBM macht mit der Einführung der System/390-Familie seine umfassendste Produktankündigung seit 25 Jahren. IBM integriert 1995 komplementäre Metalloxid-Silizium-(CMOS)-basierte Prozessoren in den System/390 Parallel Enterprise Server, und 1998 durchbrach das 10-Wege-Turbo-Modell des System/390 G5 Parallel Enterprise Servers die 1.000-MIPS-Grenze und wurde damit zum leistungsstärksten Mainframe der Welt . [219]
  • 1990: RISC-System/6000. IBM kündigt das RISC System/6000 an, eine Familie von neun Workstations, die zu den schnellsten und leistungsstärksten der Branche gehören. Das RISC System/6000 verwendet die Computertechnologie mit reduziertem Befehlssatz, ein innovatives Computerdesign von IBM, das Verarbeitungsschritte vereinfacht, um die Ausführung von Befehlen zu beschleunigen. [220]
  • 1990: Einzelne Atome bewegen. Donald M. Eigler, Physiker und IBM Fellow am IBM Almaden Research Center, demonstrierte die Fähigkeit, einzelne Atome mit einem Rastertunnelmikroskop zu manipulieren, indem er I-B-M mit 35 einzelnen Xenon-Atomen schrieb. [221]
  • 1990: Umweltprogramme'. IBM schließt sich im April 14 anderen führenden US-Unternehmen an, um ein weltweites Programm zu etablieren, das darauf abzielt, Umwelt-, Gesundheits- und Sicherheitsziele durch kontinuierliche Verbesserung der Umweltmanagementpraktiken und -leistungen zu erreichen. IBM hat seit 1973 mehr als 1 Milliarde US-Dollar investiert, um den Gemeinden, in denen sich IBM-Standorte befinden, den Umweltschutz zu bieten. [222]
  • 1991: Dienstleistungsgeschäft. IBM steigt durch die Gründung der Integrated Systems Solution Corporation wieder in das Computerdienstleistungsgeschäft ein. In Übereinstimmung mit den Bestimmungen des Consent Decree von 1956 wird ISSC in nur vier Jahren zum zweitgrößten Anbieter von Computerdiensten. Das neue Geschäft wird zu einer der wichtigsten Einnahmequellen von IBM. [223]
  • 1992: Thinkpad. IBM stellt eine neue Linie von Notebook-Computern vor. In einem markanten schwarzen Gehäuse untergebracht und mit dem innovativen TrackPoint-Gerät in der Mitte der Tastatur ausgestattet, ist das ThinkPad ein sofortiger Hit und erhält mehr als 300 Auszeichnungen für Design und Qualität. [224]

1993–2018: IBMs Beinahe-Katastrophe und Wiedergeburt Bearbeiten

Jahr Bruttoeinkommen (in Mio. $) Mitarbeiter
1985 50,050 405,535
1990 69,010 373,816
1995 71,940 225,347
2000 85,090 316,303
2005 91,400 329,373
2010 99,870 426,751

Im April 1993 stellte IBM Louis V. Gerstner, Jr. als neuen CEO ein. Zum ersten Mal seit 1914 hatte IBM eine Führungspersönlichkeit außerhalb seiner Reihen rekrutiert. Gerstner war vier Jahre lang Chairman und CEO von RJR Nabisco und war zuvor elf Jahre als Top Executive bei American Express tätig. Gerstner brachte eine kundenorientierte Sensibilität und das strategisch denkende Know-how mit, das er sich über Jahre als Unternehmensberater bei McKinsey & Co. angeeignet hatte. Da er erkannte, dass seine erste Priorität die Stabilisierung des Unternehmens war, nahm er eine Triage-Mentalität an und nahm schnell, dramatische Aktion. Zu seinen frühen Entscheidungen gehörten die Wiedereingliederung in den Mainframe, der Verkauf der Federal Systems Division an Loral, um die Kassen des Unternehmens aufzufüllen, die weitere Reduzierung der Belegschaft (erreichte 1994 einen Tiefststand von 220.000 Mitarbeitern) und die Förderung erheblicher Kostensenkungen innerhalb des Unternehmens. Vor allem aber beschloss Gerstner, den Schritt rückgängig zu machen, IBM-Geschäftseinheiten in separate Unternehmen auszugliedern. Er erkannte, dass eine der dauerhaften Stärken von IBM die Fähigkeit ist, integrierte Lösungen für Kunden anzubieten – jemanden, der mehr als nur Einzelteile oder Komponenten darstellen kann. Eine Aufspaltung des Unternehmens hätte diesen einzigartigen IBM-Vorteil zerstört. [225]

Diese ersten Schritte haben funktioniert. IBM schrieb im Jahr 1994 schwarze Zahlen und erzielte einen Gewinn von 3 Milliarden US-Dollar. Stabilisierung war nicht Gerstners Endziel, sondern die Wiederherstellung des einst guten Rufs von IBM. Dazu musste er eine erfolgreiche Geschäftsstrategie entwickeln. [226] Im Laufe des nächsten Jahrzehnts entwickelte Gerstner ein Geschäftsmodell, das Rohstoffgeschäfte ablegte und sich auf Chancen mit hohen Margen konzentrierte. IBM trennte sich von Branchen mit niedrigen Margen (DRAM, IBM Network, Personal Printers und Festplatten). Das Unternehmen gewann die Geschäftsinitiative zurück, indem es auf der Entscheidung aufbaute, das Unternehmen als Ganzes zu behalten – es entfesselte ein globales Dienstleistungsgeschäft, das schnell zu einem führenden Technologieintegrator aufstieg. Ausschlaggebend für diesen Erfolg war die Entscheidung, markenunabhängig zu werden – IBM integrierte alle Technologien, die der Kunde benötigte, auch wenn sie von einem IBM-Konkurrenten stammten. [227] IBM erweiterte dieses Dienstleistungsgeschäft durch die Übernahme der Beratungsabteilung von PricewaterhouseCoopers im Jahr 2002 für 3,5 Milliarden US-Dollar. [228]

Eine weitere hochmargige Gelegenheit, in die IBM stark investierte, war Software, ein strategischer Schritt, der sich als ebenso visionär erwies. Beginnend im Jahr 1995 mit der Übernahme von Lotus Development Corp. baute IBM sein Softwareportfolio von einer Marke, DB2, auf fünf auf: DB2, Lotus, WebSphere, Tivoli und Rational. Um das Geschäft mit Verbraucheranwendungen anderen Unternehmen zu überlassen, konzentrierte sich die Softwarestrategie von IBM auf Middleware – die entscheidende Software, die Betriebssysteme mit Anwendungen verbindet.Das Middleware-Geschäft spielte die Stärken von IBM aus, und seine höheren Margen verbesserten das Endergebnis des Unternehmens gegen Ende des Jahrhunderts erheblich. [229]

Nicht alle von IBM entwickelte Software war erfolgreich. Obwohl OS/2 Microsoft Windows 95 wohl technisch überlegen war, konzentrierten sich die OS/2-Verkäufe größtenteils auf vernetzte Computer, die von Firmenmitarbeitern verwendet werden. OS/2 konnte im Consumer- und Stand-alone-Desktop-PC-Segment keine große Durchdringung entwickeln. Es gab Berichte, dass es auf IBMs eigener Aptiva-Reihe von Heim-PCs nicht richtig installiert werden konnte. [230] Microsoft unterbreitete 1994 ein Angebot, wonach, wenn IBM die Entwicklung von OS/2 vollständig einstellte, es die gleichen Bedingungen wie Compaq für eine Lizenz von Windows 95 erhalten würde. IBM lehnte ab und verfolgte stattdessen eine "IBM First"-Strategie der Förderung von OS/2 Warp und die Herabwürdigung von Windows, da IBM darauf abzielte, den Verkauf seiner eigenen Software und Hardware anzukurbeln. 1995 kamen die schwierigen Windows 95-Verhandlungen zwischen IBM und Microsoft ins Stocken, als IBM Lotus Development kaufte, dessen Lotus SmartSuite direkt mit Microsoft Office konkurrierte. Infolgedessen erhielt IBM ihre Lizenz später als ihre Konkurrenten, was den Verkauf von IBM-PCs beeinträchtigte. IBM-Beamte räumten später ein, dass OS/2 kein brauchbares Betriebssystem gewesen wäre, um sie im PC-Geschäft zu halten. [231] [232]

Hardware und Technologien von IBM wurden in Gerstners dreibeinigem Geschäftsmodell zwar relativ wenig betont, aber nicht in den sekundären Status gedrängt. Das Unternehmen brachte seine erstklassige Forschungsorganisation stärker in seine bestehenden Produktlinien und Entwicklungsprozesse ein. Während Internetanwendungen und Deep Computing Client-Server als wichtige Prioritäten der Geschäftstechnologie überholten, gewannen Mainframes wieder an Bedeutung. IBM hat seine Mainframe-Produktlinie mit CMOS-Technologien neu belebt, wodurch sie zu den leistungsstärksten und kosteneffizientesten auf dem Markt gehören. [233] Investitionen in die Mikroelektronikforschung und -fertigung machten IBM zu einem Weltmarktführer in der spezialisierten, hochmargigen Chipproduktion – 1992 wurden 200-mm-Wafer-Prozesse und innerhalb des Jahrzehnts 300-mm-Wafer entwickelt. [234] Von IBM entwickelte Chips wurden in PlayStation 3, Xbox 360 und Wii-Spielkonsolen verwendet. IBM hat mit High-End-Maschinen, die auf skalierbarer Parallelprozessortechnologie basieren, auch die Führung im Supercomputing zurückerobert.

Ebenso bedeutsam für die Wiederbelebung von IBM war der erfolgreiche Wiedereinstieg in die populäre Denkweise. Ein Teil dieser Wiederbelebung basierte auf IBM-Technologie. Am 5. Oktober 1992 kündigte IBM auf der COMDEX Computer Expo den ersten ThinkPad-Laptop-Computer 700C an. Das ThinkPad, ein Premium-Gerät, das damals 4350 US-Dollar kostete, enthielt einen 25 MHz Intel 80486SL-Prozessor, ein 10,4-Zoll-Active-Matrix-Display, eine austauschbare 120-MB-Festplatte, 4 MB RAM (erweiterbar auf 16 MB) und ein TrackPoint II-Zeigegerät. [235] Das markante schwarze Design des bekannten Designers Richard Sapper machte das ThinkPad sofort zu einem Hit bei den Digerati, und der coole Faktor des ThinkPad brachte der Marke IBM etwas von dem Gütesiegel zurück, das in den PC-Kriegen der 1980er Jahre verloren ging. Ausschlaggebend für dieses populäre Wiederaufleben war das Schachspiel 1997 zwischen IBMs schachspielendem Computersystem Deep Blue und dem amtierenden Schachweltmeister Garry Kasparov. Der Sieg von Deep Blue war eine historische Premiere für einen Computer über einen amtierenden Weltmeister. Auch die jährliche Dominanz der Supercomputer-Rankings [236] und der Statistiken zur Patentführerschaft half dem Unternehmen, seine Position als Technologieführer zurückzugewinnen. [237] Ironischerweise hat der Zusammenbruch der Dotcom-Blase im Jahr 2000 einen glücklichen Beitrag zur Wiederbelebung des Rufs des Unternehmens geleistet, bei dem viele der ausgefallenen Technologie-Überflieger der 1990er Jahre den Abschwung nicht überlebten. Diese Zusammenbrüche diskreditierten einige der modischeren internetgetriebenen Geschäftsmodelle, mit denen die schwerfällige IBM zuvor verglichen wurde.

Ein weiterer Teil des erfolgreichen Wiedereinstiegs in die populäre Denkweise war die Wiederbelebung der Marke IBM. Das Marketing des Unternehmens während des Wirtschaftsabschwungs war chaotisch und präsentierte viele verschiedene, manchmal widersprüchliche Stimmen auf dem Markt. Dieses Markenchaos war unter anderem darauf zurückzuführen, dass das Unternehmen 70 verschiedene Werbeagenturen beschäftigte. 1994 beseitigte IBM dieses Chaos, indem es seine Werbung in einer Agentur konsolidierte. Das Ergebnis war eine kohärente, konsistente Botschaft an den Markt. [238]

Als IBM seine finanzielle Basis und seine führende Position in der Branche wiedererlangte, blieb das Unternehmen aggressiv, indem es der Branche predigte, dass es nicht die alte IBM sei, dass es aus seinen Nahtod-Erfahrungen gelernt habe und dass es von ihnen grundlegend verändert worden sei. Es versuchte, das Internetzeitalter auf eine Weise neu zu definieren, die den traditionellen Stärken von IBM Rechnung trug, und führte die Diskussion mit Initiativen wie E-Commerce und On Demand auf geschäftsorientierte Weise. [239] Und es unterstützte Open-Source-Initiativen und bildete Kooperationen mit Partnern und Konkurrenten gleichermaßen. [240]

Der Wandel hat sich bei IBM auch auf andere Weise manifestiert. Das Unternehmen hat seine vielfältigen philanthropischen Praktiken überarbeitet, um einen starken Fokus auf die Verbesserung der K-12-Ausbildung zu legen. Es beendete seine 40-jährige Technologiepartnerschaft mit dem Internationalen Olympischen Komitee nach einem erfolgreichen Engagement bei den Olympischen Spielen 2000 in Sydney, Australien. Im Personalbereich war die Übernahme und Integration von Diversity-Prinzipien und -Praktiken durch IBM auf dem neuesten Stand. 1984 erweiterte sie ihre Antidiskriminierungspraktiken um die sexuelle Orientierung, gründete 1995 Task Forces für Führungskräfte und bot 1996 ihren Mitarbeitern Leistungen für Lebenspartner an. Das Unternehmen wird regelmäßig als einer der besten Arbeitgeber für Mitarbeiter, farbige Mitarbeiter und Frauen aufgeführt. [241] Und 1996 nahm die Women in Technology International Hall of Fame drei IBMer als Teil ihrer ersten Klasse von 10 Frauen auf: Ruth Leach Amonette, die erste Frau, die eine Führungsposition bei IBM innehatte Barbara Grant, PhD, erste Frau, die zum IBM Site General Manager ernannt und Linda Sanford, die am höchsten platzierte technische Frau bei IBM. Fran Allen – eine frühe Software-Pionierin und ein weiterer IBM-Held für ihre jahrzehntelangen innovativen Arbeiten im Bereich Compiler – wurde 1997 aufgenommen. [242]

Gerstner ging Ende 2002 in den Ruhestand und wurde durch den langjährigen IBMer Samuel J. Palmisano ersetzt.

Wichtige Ereignisse Bearbeiten

  • 1993: Milliardenverluste. IBM interpretiert zwei bedeutende Trends in der Computerindustrie falsch: Personalcomputer und Client-Server-Computing: und verliert 1993 mehr als 8 Milliarden Dollar, das dritte Jahr in Folge mit Milliardenverlusten. Seit 1991 hat das Unternehmen 16 Milliarden US-Dollar verloren, und viele meinen, IBM sei kein tragfähiger Akteur in der Branche mehr. [243]
  • 1993: Louis V. Gerstner jr.. Gerstner tritt am 1. April 1993 als Vorstandsvorsitzender und CEO von IBM an. Zum ersten Mal seit der Ankunft von Thomas J. Watson sen. im Jahr 1914 hat IBM eine Führungspersönlichkeit außerhalb seiner Reihen. Gerstner war vier Jahre lang Chairman und CEO von RJR Nabisco und zuvor elf Jahre als Top Executive bei American Express tätig. [244]
  • 1993: IBM Skalierbares POWERparallel-System. IBM stellt das skalierbare POWERparallel-System vor, das erste in einer Familie von mikroprozessorbasierten Supercomputern, die die RISC-System/6000-Technologie verwenden. IBM ist Vorreiter bei der bahnbrechenden skalierbaren Parallelsystemtechnologie, bei der kleinere Computerprozessoren in Massenproduktion miteinander verbunden werden, anstatt sich auf einen größeren, kundenspezifischen Prozessor zu verlassen. Komplexe Abfragen könnten dann in eine Reihe kleinerer Jobs unterteilt werden, die gleichzeitig ("parallel") ausgeführt werden, um ihre Ausführung zu beschleunigen. [245]
  • 1994: Wende. IBM meldet einen Jahresüberschuss, den ersten seit 1990. In den nächsten Jahren schlägt das Unternehmen erfolgreich einen neuen Geschäftskurs ein, der sich weniger auf seine traditionellen Stärken bei der Hardware konzentriert, sondern mehr auf Services, Software und seine Fähigkeit, handwerkstechnische Lösungen. [246]
  • 1994: IBM RAMAC Array-Speicherfamilie. Die IBM RAMAC Array-Familie wird angekündigt. Mit Funktionen wie hochparalleler Verarbeitung, Multi-Level-Cache, RAID 5 und redundanten Komponenten stellt RAMAC einen großen Fortschritt in der Informationsspeichertechnologie dar. Bestehend aus dem RAMAC Array Direct Access Storage Device (DASD) und dem RAMAC Array Subsystem, werden die Produkte mit fast 2.000 ausgelieferten Systemen in den ersten drei Monaten nach Verfügbarkeit zu einer der erfolgreichsten Speicherprodukteinführungen von IBM aller Zeiten. [247]
  • 1994: Spracherkennung. IBM veröffentlicht das IBM Personal Dictation System (IPDS), die erste Welle von Spracherkennungsprodukten für den PC. Es wird später in VoiceType umbenannt und seine Fähigkeiten werden erweitert, um die Steuerung von Computeranwendungen und Desktops zu ermöglichen, indem man einfach mit ihnen spricht, ohne eine Tastatur zu berühren. 1997 kündigt IBM ViaVoice Gold an, eine Software, die es Menschen ermöglicht, freihändig Text zu diktieren und mit der Leistung natürlicher, kontinuierlicher Sprache auf dem Desktop zu navigieren. [248]
  • 1995: Übernahme der Lotus Development Corporation. IBM erwirbt alle ausstehenden Aktien der Lotus Development Corporation, deren bahnbrechende Notes-Software eine bessere Zusammenarbeit innerhalb eines Unternehmens ermöglicht und deren Übernahme IBM zum weltweit größten Softwareunternehmen macht. [249]
  • 1995: Glueball-Berechnung. IBM-Wissenschaftler führen eine zweijährige Berechnung durch – die größte einzelne numerische Berechnung in der Geschichte der Computertechnik –, um die Eigenschaften eines schwer fassbaren Elementarteilchens namens "Klebekugel" zu bestimmen. Die Berechnung wurde auf GF11 durchgeführt, einem massiv parallelen Computer am IBM Thomas J. Watson Research Center. [250]
  • 1996: Eröffnung des IBM Austin Research Laboratory. Das Labor mit Sitz in Austin, Texas, konzentriert sich auf fortschrittliches Schaltungsdesign sowie neue Designtechniken und -werkzeuge für sehr leistungsstarke Mikroprozessoren. [251]
  • 1996: Olympischen Spiele in Atlanta. IBM erleidet eine öffentliche Verlegenheit, als seine IT-Unterstützung der Olympischen Spiele in Atlanta technische Schwierigkeiten hat. [252]
  • 1996: Lebenspartnerleistungen. IBM kündigt Domestic Partner Benefits für schwule und lesbische Mitarbeiter an. [253]
  • 1997: Deep Blue. Der 32-Knoten IBM RS/6000 SP Supercomputer Deep Blue besiegt Schachweltmeister Garry Kasparov im ersten bekannten Fall eines Computers, der einen amtierenden Schachweltmeister in einem Turnierwettbewerb besiegt. [254]
  • 1997: eBusiness. IBM prägt den Begriff und definiert eine enorme neue Industrie, indem es das Internet als Medium für echte geschäftliche und institutionelle Transformation nutzt. E-Business wird im Internetzeitalter zum Synonym für Geschäftstätigkeit. [255]
  • 1998: CMOS-Gigaprozessor. IBM stellt den ersten Mikroprozessor vor, der mit 1 Milliarde Zyklen pro Sekunde läuft. IBM-Wissenschaftler entwickeln neue Silizium-auf-Isolator-Chips für den Bau eines Mainstream-Prozessors. Der Durchbruch führt zu neuen Schaltungsdesigns und Produktgruppen. [256]
  • 1999: Blaues Gen. IBM Research startet ein Computerarchitektur-Kooperationsprojekt mit dem Lawrence Livermore National Laboratory, dem US-Energieministerium (das das Projekt teilweise finanziert) und Hochschulen, um neue Supercomputer (4) zu bauen, die mehr als eine Billiarde Operationen pro Sekunde (ein Petaflop). Die neuen Supercomputer mit dem Spitznamen "Blue Gene" arbeiten 500-mal schneller als andere leistungsstarke Supercomputer und können die Faltung komplexer Proteine ​​simulieren. [257]
  • 2000: Quanten-Trugbild-Nanotechnologie. IBM-Wissenschaftler entdecken eine Möglichkeit, Informationen auf atomarer Ebene zu transportieren, die Elektronen anstelle einer herkömmlichen Verkabelung verwendet. Dieses neue Phänomen, genannt Quanten-Trugbild Effekt, ermöglicht die Datenübertragung innerhalb zukünftiger elektronischer Schaltkreise im Nanomaßstab, die zu klein sind, um Drähte zu verwenden. Die Quanten-Trugbild-Technik ist eine einzigartige Möglichkeit, Informationen durch feste Formen zu senden und könnte die Verkabelung überflüssig machen, die Nanoschaltungskomponenten verbindet. [258]
  • 2000: IBM ASCI White – Schnellster Supercomputer. IBM liefert den leistungsstärksten Computer der Welt an das US-Energieministerium, der leistungsfähig genug ist, um eine Internet-Transaktion für jeden Menschen auf der Erde in weniger als einer Minute zu verarbeiten. IBM baute den Supercomputer, um die Sicherheit und Wirksamkeit der alternden Nuklearwaffenbestände des Landes genau zu testen. Dieser Computer ist 1.000 Mal leistungsfähiger als Deep Blue, der Supercomputer, der 1997 Garry Kasparov im Schach besiegte. [259]
  • 2000: Flexible Transistoren. IBM hat flexible Transistoren entwickelt, die organische und anorganische Materialien als Medium für Halbleiter kombinieren. Diese Technologie ermöglicht Dinge wie eine „elektronische Zeitung“, die so leicht und günstig ist, dass man sie im Flugzeug oder in der Hotellobby nicht zurücklassen kann. Durch die Beseitigung der Einschränkungen beim Ätzen von Computerschaltkreisen in Silizium ermöglichen flexible Transistoren die Schaffung einer neuen Generation kostengünstiger Computerdisplays, die in gebogenen Kunststoff oder andere Materialien eingebettet werden können. [260]
  • 2000: Olympischen Spiele in Sydney. Nach einem erfolgreichen Engagement bei den Olympischen Spielen 2000 in Sydney beendet IBM seine 40-jährige Technologiepartnerschaft mit dem Internationalen Olympischen Komitee. [261]
  • 2001: Holocaust-Kontroverse. Ein umstrittenes Buch, IBM und der Holocaust: Die strategische Allianz zwischen Nazideutschland und Amerikas mächtigstem Konzern von Edwin Black, wirft IBM vor, die Nazi-Behörden durch die Bereitstellung von tabellarischen Produkten und Dienstleistungen wissentlich bei der Aufrechterhaltung des Holocaust unterstützt zu haben. Mehrere Klagen werden von Holocaust-Opfern gegen IBM eingereicht, um Wiedergutmachung für ihr Leiden und ihre Verluste zu fordern. Alle Klagen im Zusammenhang mit diesem Problem wurden schließlich ohne Wiedergutmachung eingestellt. [262]
  • 2001: Kohlenstoff-Nanoröhrchen-Transistoren. IBM-Forscher bauen die weltweit ersten Transistoren aus Kohlenstoff-Nanoröhrchen – winzige Zylinder aus Kohlenstoffatomen, die 500-mal kleiner als Transistoren auf Siliziumbasis und 1.000-mal stärker als Stahl sind. Der Durchbruch ist ein wichtiger Schritt, um Materialien zu finden, die zum Bau von Computerchips verwendet werden können, wenn Chips auf Siliziumbasis nicht kleiner gemacht werden können. [263]
  • 2001: Energiesparinitiative. IBM startet seine Low-Power-Initiative zur Verbesserung der Energieeffizienz der IT und beschleunigt die Entwicklung von Komponenten mit extrem geringem Stromverbrauch und energieeffizienten Servern, Speichersystemen, PCs und ThinkPad Notebook-Computern. [264]
  • 2001: Höhere Dichte und Chipgeschwindigkeiten. IBM ist das erste Unternehmen, das Computerfestplatten mit einer revolutionären neuen Art von magnetischer Beschichtung – „Pixie Dust“ – in Massenproduktion herstellt, die schließlich die Datendichte aktueller Festplattenprodukte vervierfacht. IBM stellt auch "strained Silicon" vor, einen Durchbruch, der das Silizium verändert, um die Chipgeschwindigkeit um bis zu 35 Prozent zu steigern. [265][266]
  • 2002: Das Festplattengeschäft wird an Hitachi . verkauft. [267]
  • 2003: Blaues Gen/L. Das BLUE GENE-Team stellt einen Prototyp seines Blue Gene/L-Computers vor, der ungefähr die Größe einer normalen Spülmaschine hat und auf Platz 73 der leistungsstärksten Supercomputer der Welt steht. Diese Kubikmeter-Maschine ist ein kleines Modell des vollständigen Blue Gene/L, das für das Lawrence Livermore National Laboratory in Kalifornien gebaut wurde und das 128-mal größer sein wird, wenn es zwei Jahre später vorgestellt wird. [268]
  • 2005: Kreuzzug gegen den Krebs. IBM arbeitet mit dem Memorial Sloan-Kettering Cancer Center (MSKCC), dem Molecular Profiling Institute und dem CHU Sainte-Justine Research Center zusammen, um in der Krebsforschung durch den Aufbau hochmoderner integrierter Informationsmanagementsysteme zusammenzuarbeiten. [269]
  • 2005: Die PC-Sparte wird verkauft. Die PC-Sparte (inklusive Thinkpads) wird an den chinesischen Hersteller Lenovo verkauft. [270]
  • 2006: Übersetzungssoftware. IBM stellt US-Streitkräften im Irak ein fortschrittliches Sprach-zu-Sprache-Übersetzungssystem zur Verfügung, das eine bidirektionale Übersetzungssoftware vom Englischen ins Arabische verwendet, die die Kommunikation zwischen Militärpersonal und irakischen Streitkräften und Bürgern verbessert. Die bahnbrechende Software gleicht den aktuellen Mangel an Militärlinguisten aus. [271]
  • 2007: Erneuerbare Energien. IBM wird von der US-EPA für seine führenden Ökostromkäufe in den USA und für seine Unterstützung und Teilnahme an der Fortune 500 Green Power Challenge der EPA ausgezeichnet. IBM belegte 2007 den 12. Platz auf der Liste der Green Power Partner der EPA. IBM kaufte 2007 genügend erneuerbare Energie, um 4 % seines US-Stromverbrauchs und 9 % seines weltweiten Strombezugs zu decken. Das Engagement von IBM für Ökostrom trägt dazu bei, die Treibhausgasemissionen zu senken. [272]
  • 2007: Flussüberwachung mit IBM Stream Computing. In einer einzigartigen Zusammenarbeit haben The Beacon Institute und IBM das erste technologiebasierte Flussüberwachungsnetzwerk geschaffen. Das River and Estuary Observatory Network (REON) ermöglicht eine minutengenaue Überwachung des New Yorker Hudson River über ein integriertes Netzwerk aus Sensoren, Robotik und Computertechnologie. Dieses einzigartige Projekt wird durch IBMs "Stream Computing" ermöglicht, eine grundlegend neue Computerarchitektur, die Tausende von Informationsquellen untersuchen kann, um Wissenschaftlern dabei zu helfen, besser zu verstehen, was gerade passiert. [273][274]
  • 2007: Patentmacht. IBM hat mehr US-Patente erhalten als jedem anderen Unternehmen. Von 1993 bis 2007 erhielt IBM über 38.000 US-Patente und hat seit 1996 jährlich etwa 5 Milliarden US-Dollar in Forschung, Entwicklung und Technik investiert. Das derzeit aktive Portfolio von IBM umfasst etwa 26.000 Patente in den USA und über 40.000 Patente weltweit sind ein direktes Ergebnis dieser Investition. [275]
  • 2008: IBM Roadrunner Nr. 1 Supercomputer. Zum neunten Mal in Folge belegt IBM mit dem IBM-Computer, der für die Roadrunner-Projekt im Los Alamos National Laboratory. Es ist das erste weltweit, das mit Geschwindigkeiten von mehr als einer Billiarde Berechnungen pro Sekunde arbeitet und bleibt über ein Jahr lang Geschwindigkeitsweltmeister. Das Los Alamos-System ist doppelt so energieeffizient wie der damalige Computer Nr. 2 und verbraucht etwa die Hälfte des Stroms, um die gleiche Rechenleistung aufrechtzuerhalten. [276]
  • 2008: Grüner Strom. IBM eröffnet sein „grünstes“ Rechenzentrum in Boulder, Colorado. Die energieeffiziente Anlage ist Teil einer 350-Millionen-Dollar-Investition von IBM in Boulder, um die Kundennachfrage nach Senkung der Energiekosten zu erfüllen. Das neue Rechenzentrum bietet modernste Technologien und Dienstleistungen, darunter High-Density-Computing-Systeme mit Virtualisierungstechnologie. Green Power Center ermöglichen es IBM und seinen Kunden, ihren CO2-Fußabdruck zu reduzieren. [277]
  • 2011: Watson. Supercomputer von IBM Watson in der TV-Show angetreten Gefahr! gegen Ken Jennings und Brad Rutter und gewann überzeugend. Präsentiert wurde der Wettbewerb von PBS. [278]
  • 16. Juni 2011: IBM vor 100 Jahren gegründet. Mark Krantz und Jon Swartz in USA heute Zustand Es ist über die Jahrzehnte an der Spitze geblieben. das fünftwichtigste US-Unternehmen [heute] . demonstrierte eine Stärke, die die meisten 100 Jahre alten Unternehmen teilen: die Fähigkeit zur Veränderung.. überlebte nicht nur die Depression und mehrere Rezessionen, sondern auch technologische Veränderungen und intensiven Wettbewerb.[279]
  • 28. Oktober 2018 Akquisition von Red Hat für 34 Milliarden US-Dollar Am 28. Oktober 2018 gab IBM seine Absicht bekannt, Red Hat für 34 Milliarden US-Dollar im Rahmen einer seiner größten Akquisitionen aller Zeiten zu übernehmen. Das Unternehmen wird aus der Hybrid Cloud-Sparte von IBM heraus operieren. [280][281][282][283][284]

2019–heute Bearbeiten

Die Übernahme von Red Hat im Jahr 2019 hat es IBM ermöglicht, seinen Fokus auf zukünftige Plattformen zu ändern, so IBM-Chef Arvind Krishna. [285]

Im Oktober 2020 gab IBM bekannt, dass es sich in zwei börsennotierte Unternehmen aufspaltet. [286] IBM wird sich auf margenstarkes Cloud-Computing und künstliche Intelligenz konzentrieren, die auf der Grundlage der Akquisition von Red Hat 2019 aufbauen. Die bisherige Einheit Managed Infrastructure Services wird in eine neue Aktiengesellschaft Kyndryl ausgegliedert, um die IT-Infrastruktur und Konten der Kunden zu verwalten und 4.600 Kunden in 115 Ländern mit einem Auftragsbestand von 60 Milliarden US-Dollar zu haben. [287] [288]

Dieser neue Fokus auf Hybrid Cloud, der IBM von seinen anderen Geschäftsbereichen trennt, wird größer sein als jede seiner früheren Veräußerungen und von den Investoren begrüßt. [289] [290] [291]

IBM dominierte den größten Teil des 20. Jahrhunderts den Markt der elektronischen Datenverarbeitung, kontrollierte zunächst über 70 Prozent des Marktes für Lochkarten und Tabelliermaschinen und erreichte dann einen ähnlichen Anteil am Computermarkt. [292] IBM behauptete, dass seine Erfolge bei der Erzielung und Beibehaltung solcher Marktanteile auf seine Fähigkeiten, Industrie und Weitsicht zurückzuführen seien. Regierungen und Wettbewerber behaupteten, dass die Beibehaltung dieser großen Anteile zumindest teilweise auf wettbewerbswidrige Handlungen wie unfaire Preise zurückzuführen sei , Geschäftsbedingungen, Bindungen, Produktmanipulationen und Schaffung von FUD (Fear, Uncertainty and Doubt) auf dem Markt. [293] IBM war damit im 20. Jahrhundert Angeklagter in mehr als zwanzig staatlichen und privaten Kartellverfahren. IBM hat nur eine dieser Angelegenheiten verloren, andere jedoch auf eine Weise geregelt, die die Branche tiefgreifend geprägt hat, wie unten zusammengefasst. Ende des 20. Jahrhunderts war IBM in der Computerindustrie nicht mehr so ​​dominant. Einige Beobachter vermuten, dass die Aufmerksamkeit des Managements auf die vielen Kartellklagen der 1970er Jahre zumindest teilweise für den Niedergang verantwortlich war. [292]

1936 Einverständniserklärung Bearbeiten

Im Jahr 1932 behaupteten Staatsanwälte der US-Regierung als wettbewerbswidrig, was die Praxis von IBM anknüpfte, Kunden, die ihre Tabelliergeräte mieteten, zum Kauf von Lochkarten zu verpflichten, die auf solchen Geräten verwendet wurden. IBM verlor [294] und in dem daraus resultierenden Zustimmungsdekret von 1936 stimmte IBM zu, nicht mehr nur IBM-Karten zu benötigen, und erklärte sich bereit, alternative Kartenlieferanten beim Anlaufen von Produktionsanlagen zu unterstützen, die mit IBM konkurrieren würden, wodurch ein separater Markt für Lochkarten geschaffen und in Effekt für nachfolgendes Computerzubehör wie Bänder und Plattenpakete. [295]

Einverständniserklärung von 1956 Bearbeiten

Am 21. Januar 1952 reichte die US-Regierung eine Klage ein, die zu einem am 25. Januar 1956 endgültig erlassenen Zustimmungsdekret führte. [296] Das Ziel der Regierung, den Wettbewerb in der Datenverarbeitungsindustrie zu erhöhen, wurde durch mehrere Bestimmungen in der Verordnung verwirklicht : [297]

  • IBM war verpflichtet, Geräte zu Bedingungen zu verkaufen, die Käufern gegenüber Kunden, die dieselben Geräte von IBM leasen, benachteiligen würden. Vor diesem Dekret hatte IBM seine Geräte nur gemietet. Dadurch wurden sowohl Märkte für gebrauchte IBM-Geräte [297] als auch die Leasingfinanzierung von IBM-Geräten durch Dritte (Leasinggesellschaften) geschaffen. [297]
  • IBM war verpflichtet, unabhängigen Instandhaltern von gekauften IBM-Geräten Teile und Informationen zur Verfügung zu stellen, [297] um solche Hardware-Wartungsdienste zu ermöglichen und eine Nachfrage nach diesen zu schaffen.
  • IBM war verpflichtet, Datenverarbeitungsdienste über eine Tochtergesellschaft zu verkaufen, die nicht anders behandelt werden konnte als jedes andere von IBM unabhängige Unternehmen, was den Wettbewerb im Datenverarbeitungsdienstleistungsgeschäft ermöglichte.
  • IBM war verpflichtet, jedermann nicht-exklusive, nicht übertragbare, weltweite Lizenzen für alle Patente zu angemessenen Lizenzgebühren zu gewähren, sofern der Lizenznehmer seine Patente zu ähnlichen Bedingungen an IBM kreuzlizensiert hat. [296] Dies beseitigte IBM-Patente als Wettbewerbsbarriere in der Datenverarbeitungsindustrie und ermöglichte die Entstehung von Herstellern von Gerätesteckern, die mit IBM-Geräten kompatibel sind.

Das Dekret trug zwar wenig dazu bei, die zukünftige Dominanz von IBM in der damals im Entstehen begriffenen Computerindustrie einzuschränken, ermöglichte jedoch den Wettbewerb in Segmenten wie Leasing, Dienstleistungen, Wartung und Ausrüstung, die an IBM-Systeme angeschlossen werden können, und verringerte die Eintrittsbarrieren durch obligatorische angemessene gegenseitige Patentlizenzierung .

Die Bestimmungen des Dekrets blieben bis 1996 in Kraft und wurden in den nächsten fünf Jahren abgeschafft. [298]

1968-1984 Mehrere staatliche und private Kartellbeschwerden Bearbeiten

1968 wurde die erste einer Reihe von Kartellklagen gegen IBM eingereicht von Control Data Corp (CDC). 1969 folgte die Kartellklage der US-Regierung, dann 19 private US-Kartellklagen und eine europäische Klage. Am Ende hat IBM einige dieser Angelegenheiten geregelt, aber hauptsächlich gewonnen. Der Fall der US-Regierung, der von vier US-Präsidenten und ihren Generalstaatsanwälten unterstützt wurde, wurde 1982 von William Baxter, dem stellvertretenden Generalstaatsanwalt von US-Präsident Reagans und zuständig für die Kartellabteilung des Justizministeriums, als „ohne Verdienst“ fallen gelassen. [299]

1968-1973 Control Data Corp. gegen IBM Bearbeiten

CDC reichte beim Bundesgericht von Minnesota eine Kartellklage gegen IBM ein, in der behauptet wurde, IBM habe den Computermarkt unter Verstoß gegen Abschnitt 2 des Sherman Act monopolisiert, indem es unter anderem Produkte ankündigte, die es nicht liefern könne. [300] Ein internes IBM-Memo von 1965 eines IBM-Anwalts stellte fest, dass Control Data öffentlich IBM für seine sinkenden Einnahmen verantwortlich gemacht hatte, „und seine häufigen Modell- und Preisänderungen. [301] Im Jahr 1973 hat IBM den CDC-Fall für etwa 80 Millionen US-Dollar in bar und die Übertragung von Vermögenswerten einschließlich der IBM Service Bureau Corp an CDC beigelegt. [300]

1969-1982 USA gegen IBM Bearbeiten

Am 17. Januar 1969 reichten die Vereinigten Staaten von Amerika beim United States District Court for the Southern District of New York eine Beschwerde ein, in der sie behaupteten, dass IBM gegen Abschnitt 2 des Sherman Antitrust Act verstoßen habe, indem es den Mehrzweckmonopolisten monopolisiert oder versucht habe, ihn zu monopolisieren Markt für elektronische digitale Computersysteme, insbesondere Computer, die hauptsächlich für Geschäftszwecke bestimmt sind. In der Folge wirft die US-Regierung IBM bei den gegen Leasingunternehmen und Hersteller von steckerkompatiblen Peripheriegeräten gerichteten Klagen gegen das Kartellrecht vor.

Im Juni 1969 entbündelte IBM seine Software und Dienstleistungen, was viele Beobachter als Vorwegnahme und direkte Folge der US-Kartellklage von 1969 glaubten. Über Nacht wurde ein wettbewerbsfähiger Softwaremarkt geschaffen. [302]

Zu den wichtigsten behaupteten Verstößen [303] gehörten:

  • Wettbewerbswidrige Preisdiskriminierung wie das Verschenken von Softwarediensten.
  • Bündelung von Software mit "zugehöriger Computerhardware" zu einem einzigen Preis.
  • Preisgünstige und vorangekündigte spezifische Hardware "Kampfmaschinen".
  • Entwicklung und Ankündigung spezifischer Hardwareprodukte in erster Linie, um Kunden davon abzuhalten, konkurrierende Produkte zu erwerben.
  • Ankündigung bestimmter zukünftiger Produkte in dem Wissen, dass es unwahrscheinlich ist, dass diese Produkte innerhalb des angekündigten Zeitrahmens ausgeliefert werden können.
  • In ausgewählten Märkten an Unterkosten- und Rabattverhalten beteiligt, um periphere Hersteller und Leasingunternehmen zu verletzen.

Es war in gewisser Weise einer der großen Einzelfirma-Monopolfälle aller Zeiten. IBM produzierte während der Entdeckung 30 Millionen Seiten mit Materialien, die es seinen Führungskräften zu einer Reihe von Vorverhandlungen unterzog. Der Prozess begann sechs Jahre nach Einreichung der Klage und wurde dann weitere sechs Jahre vor Gericht geführt. Das Verhandlungsprotokoll enthält über 104.400 Seiten mit Tausenden von Dokumenten, die in der Akte gespeichert sind. Es endete am 8. Januar 1982, als William Baxter, der damalige stellvertretende Generalstaatsanwalt für die Kartellabteilung des Justizministeriums, den Fall als „unbegründet“ fallen ließ. [299]

1969-1981 Private Kartellklagen Bearbeiten

Auf die Kartellklage der USA von 1969 folgten etwa 18 private Kartellklagen, von denen alle bis auf eine IBM gewannen. Einige bemerkenswerte Klagen umfassen:

Greyhound Computer Corp. Bearbeiten

Greyhound, eine Leasinggesellschaft, reichte beim Staatsgericht von Illinois einen Fall nach dem Kartellgesetz des Staates Illinois ein. [304] Dieser Fall wurde 1972 vor einem Bundesgericht in Arizona mit einem gerichteten Urteil für IBM über die kartellrechtlichen Ansprüche verhandelt, jedoch hob das Berufungsgericht 1977 die Entscheidung auf. Kurz vor Beginn des Wiederaufnahmeverfahrens im Januar 1981 haben IBM und Greyhound den Fall für 17,7 Millionen US-Dollar beigelegt. [300]

Telex Corp. Bearbeiten

Telex, ein Hersteller von Peripheriegeräten, reichte am 21. Januar 1972 Klage ein und beschuldigte IBM, die weltweite Herstellung, den Vertrieb, den Verkauf und das Leasing von elektronischen Datenverarbeitungsgeräten einschließlich des relevanten Teilmarkts der steckerkompatiblen Peripheriegeräte monopolisiert und versucht zu haben, diese zu monopolisieren. Nach einem nichtgerichtlichen Verfahren im Jahr 1973 wurde IBM für schuldig befunden, "Monopolmacht zu besitzen und auszuüben" über den "Markt für steckerkompatible Peripheriegeräte" und zur Zahlung des dreifachen Schadenersatzes in Höhe von 352,5 Millionen US-Dollar und anderer Entschädigungen, einschließlich der Offenlegung von Schnittstellenspezifikationen für Peripheriegeräte, verurteilt . Unabhängig davon wurde Telex des Missbrauchs von IBM-Geschäftsgeheimnissen für schuldig befunden. [305] Das Urteil gegen IBM wurde im Berufungsverfahren aufgehoben und am 4. Oktober 1975 gaben beide Parteien bekannt, dass sie ihre Klagen gegeneinander einstellen würden. [306]

Andere private Klagen Bearbeiten

Andere Privatklagen, die IBM letztendlich gewonnen hat, sind California Computer Products Inc., [307] Memorex Corp., [308] Marshall Industries, Hudson General Corp., Transamerica Corporation [309] und Forro Precision, Inc.

1980-1984 Europäische Union Bearbeiten

Die Monopolkommission der Europäischen Wirtschaftsgemeinschaft leitete ein Verfahren gegen IBM gemäß Artikel 86 der Römischen Verträge wegen Ausnutzung ihrer Vorherrschaft im Computergeschäft des Kontinents und des Missbrauchs ihrer marktbeherrschenden Stellung durch Geschäftspraktiken ein, die ihre Position gegenüber steckerfähigen Herstellern schützen sollen. Der Fall wurde 1984 beigelegt, als IBM zustimmte, seine Geschäftspraktiken in Bezug auf die Offenlegung von Geräteschnittstelleninformationen zu ändern. [310]

Evolution der Computerhardware von IBM Bearbeiten

Die Geschichte der Hardware von IBM ist mit der Geschichte der Computerindustrie verflochten – von Vakuumröhren über Transistoren bis hin zu integrierten Schaltkreisen und Mikroprozessoren und darüber hinaus. Folgende Systeme und Baureihen stellen wesentliche Schritte dar:

    - Übersicht – 1948, die erste betriebsfähige Maschine, die ihre Anweisungen als Daten behandeln kann – 1949 – 1952–1958 – 1954, der erste Supercomputer[311] – 1954, der erste in Serie gefertigte Computer der Welt
  • SAGE AN/FSQ-7 – 1958, ein halbes Morgen Grundfläche, 275 Tonnen, bis zu drei Megawatt, . die größten jemals gebauten Computer – 1959–1964, Transistorentwicklung der IBM 700-Serie – 1959, ". Mitte der 1960er Jahre waren fast die Hälfte aller Computersysteme der Welt Systeme des Typs 1401." [312] – 1964, die erste Familie von Computern, die entwickelt wurde, um den gesamten Anwendungsbereich abzudecken, klein bis groß, kommerzielle und wissenschaftliche RISC-Prozessoren waren früher IBM AS/400, dann IBM eServer iSeries war früher IBM System/390 (Computer)

Komponenten bearbeiten

Evolution der Betriebssysteme von IBM Bearbeiten

IBM-Betriebssysteme haben parallel zur Hardwareentwicklung stattgefunden. Auf frühen Systemen stellten Betriebssysteme eine relativ bescheidene Investition dar und wurden im Wesentlichen als Ergänzung zur Hardware angesehen. Zur Zeit von System/360 hatten Betriebssysteme jedoch eine viel größere Rolle in Bezug auf Kosten, Komplexität, Bedeutung und Risiko übernommen.

Mainframe-Betriebssysteme umfassen:

  • Betriebssystemfamilie, einschließlich: OS/360, OS/MFT, OS/MVT, OS/VS1, OS/VS2, MVS, OS/390, z/OS
  • DOS-Familie, einschließlich: DOS/360, DOS/VS, DOS/VSE, z/VSE
  • VM-Familie, einschließlich: CP/CMS (Siehe: Geschichte von CP/CMS), VM/370, VM/XA, VM/ESA, z/VM
  • Spezialsysteme, einschließlich: TPF, z/TPF

Andere wichtige Betriebssysteme sind:

Hochsprachen Bearbeiten

Frühe IBM-Computersysteme wurden, wie auch die von vielen anderen Anbietern, mit Assemblersprache programmiert. Die Bemühungen der Informatik in den 1950er und frühen 1960er Jahren führten zur Entwicklung vieler neuer Hochsprachen (HLL) für die Programmierung. IBM spielte in diesem Prozess eine komplizierte Rolle. Hardwareanbieter waren natürlich besorgt über die Auswirkungen portabler Sprachen, die es Kunden ermöglichen würden, ohne Kompatibilitätsprobleme zwischen Anbietern auszuwählen. Insbesondere IBM trug dazu bei, Barrieren zu schaffen, die dazu führten, dass Kunden an eine einzige Plattform gebunden waren.

IBM spielte eine bedeutende Rolle in den folgenden großen Computersprachen:

    – jahrelang die dominierende Sprache für Mathematik und naturwissenschaftliche Programmierung – der Versuch, eine „alles und alles“-Sprache zu schaffen – schließlich die allgegenwärtige Standardsprache für Geschäftsanwendungen – eine frühe interaktive Sprache mit mathematischer Notation – eine interne Systemprogrammierung proprietäre Sprache von IBM – ein Akronym für „Report Program Generator“, entwickelt auf dem IBM 1401, um Berichte aus Datendateien zu erstellen. Die General Systems Division hat die Sprache auf ihren Midrange-Systemen auf den HLL-Status verbessert, um mit COBOL zu konkurrieren. – eine relationale Abfragesprache, die für IBMs System R entwickelt wurde und jetzt die Standard-RDBMS-Abfragesprache ist – eine Makro- und Skriptsprache basierend auf der PL/I-Syntax, die ursprünglich für das Conversational Monitor System (CMS) entwickelt und von IBM Fellow Mike Cowlishaw verfasst wurde

IBM und AIX/UNIX/Linux/SCO Bearbeiten

IBM entwickelte eine schizophrene Beziehung zur Unix- und Linux-Welt. Die Bedeutung des großen Computergeschäfts von IBM übte einen seltsamen Druck auf alle Versuche von IBM aus, andere Geschäftszweige zu entwickeln. Alle IBM-Projekte waren dem Risiko ausgesetzt, als Konkurrenz zu den Unternehmensprioritäten angesehen zu werden. Denn wenn sich ein Kunde entschloss, eine Anwendung auf einer RS/6000-Plattform zu bauen, war damit auch eine Entscheidung gefallen gegen eine Mainframe-Plattform. Obwohl IBM über eine hervorragende Technologie verfügte, begab sich IBM oft in eine kompromittierte Position.

Ein typisches Beispiel sind die GFIS-Produkte von IBM für Infrastrukturmanagement und GIS-Anwendungen. Obwohl IBM seit langem eine beherrschende Stellung in Branchen wie Strom-, Gas- und Wasserversorgern innehatte, scheiterte IBM in den 1990er Jahren bei dem Versuch, Workstation-basierte Lösungen zu entwickeln, um seine alten Mainframe-basierten Produkte zu ersetzen. Kunden waren gezwungen, auf neue Technologien von anderen Anbietern umzusteigen, viele fühlten sich von IBM verraten.

IBM hat in den 1990er Jahren Open-Source-Technologien eingeführt. Später geriet das Unternehmen in einen komplexen Rechtsstreit mit der SCO-Gruppe über geistige Eigentumsrechte im Zusammenhang mit den UNIX- und Linux-Plattformen.

BICARSA (Fakturierung, Bestandskontrolle, Debitorenbuchhaltung und Verkaufsanalyse) Bearbeiten

1983 wurde das System/36 als Ersatz für das System/34 angekündigt. Und 1988 kündigte IBM die AS/400 an, die einen Konvergenzpunkt sowohl für System/36-Kunden als auch für System/38-Kunden darstellen sollte. In den 1970er Jahren hatte IBM eine Reihe von Anwendungen für Rechnungsstellung, Bestandskontrolle, Debitorenbuchhaltung und Verkaufsanalyse (BICARSA) für bestimmte Branchen entwickelt: Bau (CMAS), Vertrieb (DMAS) und Fertigung (MMAS), die alle im RPG II geschrieben wurden Sprache. Ende der 1980er Jahre hatte sich IBM fast vollständig vom Markt für BICARSA-Anwendungen zurückgezogen. Aufgrund der Entwicklungen in den Kartellverfahren gegen IBM, die von der US-Regierung und der Europäischen Union angestrengt wurden, konnten IBM-Vertriebsmitarbeiter nun offen als Partner mit Anwendungssoftwarehäusern zusammenarbeiten. (Für einen Zeitraum in den frühen 1980er Jahren galt eine 'Dreierregel', die IBM-Vertriebsmitarbeiter verpflichtete, wenn sie einem Kunden eine Drittanwendung vorschlagen sollten, auch mindestens zwei weitere Dritthersteller in der IBM-Vorschlag. Dies sorgte für einige Belustigung beim Kunden, der normalerweise mit einem der Drittanbieter intensive Verhandlungen geführt hätte und von den beiden anderen Anbietern wahrscheinlich nichts gehört hatte.)

Nicht-Computer-Geschäftszweige Bearbeiten

IBM ist vor allem dafür bekannt, dass es den öffentlichen Ruhm von UNIVAC in den frühen 1950er Jahren überholt hat und dann in der letzten Hälfte des Jahrhunderts in der Computerindustrie führend war. Es hat jedoch auch in anderen Branchen, zum Teil bedeutende, Rollen gespielt, darunter:

  • IBM war in der ersten Hälfte des 20. Jahrhunderts der größte Anbieter von Einheitsaufzeichnungsgeräten (Lochkarten, Keypunches, Abrechnungsmaschinen, . .).
  • Lebensmitteldienstleistungen (Fleisch- und Kaffeemühlen, Computerkäsehobel, Computerwaagen) – Gründung bis 1934, verkauft an Hobart Manufacturing Co. [313]
  • Zeitschreiber (Stanzuhren, Schul- und Fabrikuhren) – Gründung bis 1958, verkauft an Simplex Time Recorder Company. [40] Siehe IBM: History of the Time Equipment Division and its Products und diesen Katalog von 1935 - International Time Recording Catalog, Personal Printers. Siehe Schreibmaschine IBM Electric, Schreibmaschine IBM Selectric. 1991 wurde IBM veräußert und gehört heute zu Lexmark. [314] - 1970 bis 1988. 1988 an Eastman Kodak verkauft.
  • Andere Office-Produkte wie Diktiergeräte, Textverarbeitungsgeräte.
  • Militärprodukte (Browning Automatic Rifle, Bombenvisiere) – IBMs Produktion aus dem 2. Weltkrieg
  • Digitale Telefonvermittlungen – Partnerschaft (1983), Erwerb (1984) und Verkauf (1989–1992) von ROLM an Siemens AG[205][206][207][208]
  • Stadionanzeigetafeln
  • Immobilien (die früher riesige unbebaute Grundstücke an der US-Ostküste besaßen)
  • Medizinische Instrumente: Herz-Lungen-Maschine, Prothesen, IBM 2991 Blood Cell Washer, IBM 2997 Blood Cell Separator, IBM 5880 Elektrokardiograph-System

CEOs, namhafte IBMer Bearbeiten

Für IBMs Unternehmensbiografien ehemaliger CEOs und vieler anderer siehe: IBM Archives Biografies Builders Referenzraum


Schau das Video: Doku Katastrophen der Seefahrt TEIL 44 - Untergang nach Plan Deutsch - 2014