Schmunzel-Ecke:
... mein Hobby ... mein Eigenbau ... mein Elektrisches ... mein Elektronisches ... meine Formeln ... mein Sonstiges ...


(diese Darstellung ist nach meinen persönlichen Empfinden und Gedanken zusammengestelt, sie erhebt nicht den Anspruch auf Vollständigkeit!)


      Michael Faraday
22. September 1791; † 25. August 1867

Nach Wikipedia:
"
Naturforscher, der als einer der bedeutendsten Experimentalphysiker gilt. Faradays Entdeckungen der "elektromagnetischen Rotation" und der elektromagnetischen Induktion legten den Grundstein zur Herausbildung der Elektroindustrie. Seine anschaulichen Deutungen des magnetooptischen Effekts und des Diamagnetismus mittels Kraftlinien und Feldern führten zur Entwicklung der Theorie des Elektromagnetismus.
"

Faraday eigentlich in heutigen Zeit bekannt für die Entwicklung des Faradayschen Käfigs hat jedoch Unmengen Experimente zur Elektrizität und des Magnetismus betrieben, hat die Basis für den Elektromotor erfunden. Er hat aber auch Experimente zur Wirkung von Magnetismus auf Licht durchgeführt und war wohl schon davon überzeugt, dass Licht auch eine elektromagnetische Welle ist. Maxwell hat das aufgegriffen, weiterentwickelt und in Formel gepackt, denn im Gegensatz zu Faraday war Maxwell ein Theoretiker.

Nach Wikipedia:

"
"Faraday ist der Vater der erweiterten Lehre des Elektromagnetismus und wird dies immer bleiben."
– James Clerk Maxwell: Nature, 1873.

"Faraday sah im Geiste die den ganzen Raum durchdringenden Kraftlinien, wo die Mathematiker fernwirkende Kraftzentren sahen; Faraday sah ein Medium, wo sie nichts als Abstände sahen; Faraday suchte das Wesen der Vorgänge in den reellen Wirkungen, die sich in dem Medium abspielten, jene waren aber damit zufrieden, es in den fernwirkenden Kräften der elektrischen Fluida gefunden zu haben…"
– James Clerk Maxwell: A Treatise on Electricity and Magnetism. Clarendon Press, 1873.

Faraday war der Meinung, dass Lichtwellen vielleicht nichts anderes seien als Schwingungen von Feldlinien, sodass der Äther als Träger des Lichts entbehrlich wäre! (fand zu seiner Zeit keine Akzeptanz bei den Wissenschaftlern)

Faradays Konzepte und seine Ansicht von der Einheitlichkeit der Natur, die ohne eine einzige mathematische Formel auskamen, hinterließen beim jungen James Clerk Maxwell einen tiefen Eindruck. Maxwell stellte es sich zur Aufgabe, Faradays experimentelle Befunde und ihre Beschreibung mittels Kraftlinien und Felder in eine mathematische Darstellung zu überführen.
"


      James Clerk Maxwell
13. Juni 1831; †5. November 1879

Wenn man etwas zur Entwicklung der Funktechnik sagen will, muß man unbedingt den Physiker Maxwell erwähnen. Bereits im 19-ten Jahrhundert, noch vor Einstein, hat er vorausgesagt, dass es elektro-magnetische Wellen gibt, die sich im Raum mit Lichtgeschwindigkeit ausbreiten, kein Medium brauchen (also auch im Luftleeren Raum vorhanden sind) und zur Übertragung von Informationen geeignet sind!

Nach Wikipedia:

"
Maxwell wird im Allgemeinen als der Naturwissenschaftler des 19. Jahrhunderts mit dem größten Einfluss auf die Physik des 20. Jahrhunderts angesehen. Er lieferte Beiträge zu grundlegenden Naturmodellen und galt als Brückenbauer zwischen Mathematik und Physik. Bereits wenige Jahre nach seinem Tod war James Clerk Maxwells Bedeutung für die Naturwissenschaften weltweit akzeptiert, ohne dass man sich in der Würdigung damals - wie häufig später - vor allem auf seine Erforschung des Elektromagnetismus beschränkte.
1931, zum hundertsten Jahrestag von Maxwells Geburt, beschrieb Albert Einstein dessen Werk als
"das Tiefste und Fruchtbarste, das die Physik seit Newton entdeckt hat".       (14.März 1879; † 18.April 1955)

Algebra mit Elementen der Geometrie zu vereinen, ist ein Grundzug seines Werks. Maxwell zeigte, dass elektrische und magnetische Kräfte zwei sich ergänzende Erscheinungen des Elektromagnetismus sind. Er zeigte, dass sich elektrische und magnetische Felder in Form von elektromagnetischen Wellen mit einer konstanten Geschwindigkeit von etwa 3x108 m/s durch den Raum bewegen können, was genau der Lichtgeschwindigkeit entspricht. Er postulierte, dass das
Licht eine Form von elektromagnetischer Strahlung sei.
"

Der verbal beschriebene Zusammenhang von elektrischen und magnetischen Feldern beschreibt Maxwell durch ein Gleichungssystem, den Maxwellschen Gleichungen!

     

Prof. E.Philippow (†2.9.1991) würde sofort verzückt sein,
für ihn waren das die absoluten Schönheiten!
(TH Ilmenau - heute TU Ilmenau)

1.Glg.: Gaußscher Satz Elektrostatik
2.Glg.: allg. Induktionsgesetz
3.Glg.: allg. Durchflutungsgesetz
4.Glg.: Quellenfreiheit des magn. Induktionsflusses

(im Bild-Hintergrund sind diese Gleichungen ebenfalls sichtbar)

Nach Wikipedia:

"
Die Gleichungen beschreiben, wie elektrische und magnetische Felder untereinander sowie mit elektrischen Ladungen und elektrischem Strom unter gegebenen Randbedingungen zusammenhängen. Zusammen mit der Lorentzkraft erklären sie alle Phänomene der klassischen Elektrodynamik. Sie bilden daher auch die theoretische Grundlage der Optik und der Elektrotechnik. Die Gleichungen sind nach dem schottischen Physiker James Clerk Maxwell benannt, der sie von 1861 bis 1864 erarbeitet hat. Er kombinierte dabei das Durchflutungsgesetz und das Gaußsche Gesetz mit dem Induktionsgesetz und führte zusätzlich, um die Kontinuitätsgleichung nicht zu verletzen, den ebenfalls nach ihm benannten Verschiebungsstrom ein.

Die Maxwell-Gleichungen sind ein spezielles System von linearen partiellen Differentialgleichungen erster Ordnung. Sie lassen sich auch in integraler Form, in differentialgeometrischer Form und in kovarianter Form darstellen.

Die Maxwell-Gleichungen von James Clerk Maxwell (1831 - 1879) beschreiben die Phänomene des Elektromagnetismus.
Sie sind damit ein wichtiger Teil des modernen physikalischen Weltbildes.
"

Das weiß man heute über elektro-magnetische Wellen:


      Heinrich Rudolf Hertz
(22.Februar 1857; †1.Januar 1894)

Auf dem Entwicklungsweg der Funktechnik ist dieser Physiker unbedingt zu nennen!

Nach Wikipedia:

"
Heinrich Hertz war ein deutscher Physiker. Er konnte 1886 als Erster elektromagnetische Wellen im Experiment erzeugen und nachweisen und gilt damit als deren Entdecker.
Ihm zu Ehren wurde die internationale Einheit für die Frequenz als Hertz (abgekürzt mit dem Einheitenzeichen Hz) bezeichnet.

Hertz gelang es 1886 als Erstem, freie elektromagnetische Wellen (im Ultrakurzwellenbereich bei einer Frequenz von etwa 80 MHz) experimentell zu erzeugen und nachzuweisen. Am 13. November 1886 gelang ihm im Experiment die Erzeugung elektromagnetischer Wellen und ihre Übertragung von einem Sender zu einem Empfänger. Damit bestätigte er die von James Clerk Maxwell entwickelten Grundgleichungen des Elektromagnetismus und insbesondere die elektromagnetische Theorie des Lichts.
"

     

(der Versuchs-Aufbau: oben Sender; unten (Ring) Empfänger)


      Wilhelm "Willy" Carl Werner Otto Fritz Franz Wien
(13.Januar 1864; † 30.August 1928)

Nach Wikipedia:
"
Wien entwickelte 1893/94 das Wiensche Verschiebungsgesetz, 1894 bis 1896 das Wiensche Strahlungsgesetz zur Beschreibung der
von einem Schwarzen Körper ausgesandten thermischen Strahlung in Abhängigkeit von der Wellenlänge.
Ab 1898 entwickelte Wien bei seinen Arbeiten an Kanalstrahlen Grundlagen der Massenspektroskopie und identifizierte ein positiv geladenes Teilchen mit der Masse des Wasserstoffatoms, das Proton. Basierend auf Arbeiten von Heaviside und Searle, vertrat Wien in seiner Arbeit von 1900 die Auffassung, dass sämtliche physikalischen Prozesse elektromagnetischer Natur seien und die Masse eines Körpers vollständig aus seiner elektromagnetischen Energie mit

berechenbar sei, was ein wichtiger Schritt in Richtung der Äquivalenz von Masse und Energie war. Als überzeugter Anhänger eines elektromagnetischen Weltbildes setzte sich Wien auch intensiv mit den Problemen damaliger Äthertheorien auseinander und entwickelte 1904 Differentialgleichungen zur Elektrodynamik bewegter Körper. Er zählt deshalb zu den Vorläufern der speziellen Relativitätstheorie.
1911 erhielt Wien den Nobelpreis für Physik für die Arbeiten zur Wärmestrahlung.
"

Auf dem Weg zur Beschreibung der Ausbreitung elektromagnetischer Wellen hat W.Wien ebenfalls einen bedeutenden Betrag erbracht.


      Thomas Alva Edison
(11.Februar 1847; † 18.Oktober 1931)

Edison gilt als Erfinder der Glühbirne, Nicola Teslas soll der eigentliche Erfinder sein. Sein Verdienst ist auf jeden Fall die Einführung des elektrischen Lichts, wozu man natürlich Glühbirnen braucht.
Verärgert war er wohl darüber, dass die Glühbirnen nach Gebrauch in Abhängigkeit vom Material des Glühfadens, innen einen Belag ablagerten, der natürlich die Helligkeit des Lichtes herabsetzte. Er bezeichnete den Stoff als Ruß, er wußte nicht, dass es Elektronen sind. Also begann er zu experimentieren. Er fügte zunächst im Innern der Glühbirne ein Metallplätchen ein, in der Hoffnung, dass sich das vom Glühfaden abgesonderte Material dort absetzt - das tat es natürlich nicht!

      Darauf legte er an die Platte eine Spannung, legte er plus an das Plätchen, floß ein Strom, bei Minus dagegen passierte nichts.
Edison hat das registriert aber nicht weiter verfolgt.
Ohne es zu wissen hatte er eine Röhren-Diode entwickelt. Erst später und von anderen Wissenschaftlern wurde dieser Effekt ausgenutzt und enorm ausgebaut.


      John Ambrose Fleming
(29.November 1849; † 18.April 1945)

Nach Wikipedia:

"
Am 16. November 1904 beantragte Fleming in England ein Patent mit dem Titel "Improvements in Instruments for Detecting and Measuring Alternating Electric Currents", in dem er einen "Zweielektroden-Funkgleichrichter" beschrieb. Auf der Suche nach einem besseren Detektor für Radiowellen hatte er entdeckt, dass der Edison-Effekt (Glühemission) zur Detektion von Signalen genutzt werden konnte.
"
(einen kleinen Beitrag zum Detektor kann man auch hier finden)

So sahen dann seine ersten Röhren-Dioden aus =>

     


      Lee De Forest
(26.August 1873; † 30.Juni 1961)

Nach Wikipedia:
"
1906 erfand de Forest das Audion als Verbesserung der zu dieser Zeit benutzten Röhrendiode und meldete seine Erfindung als Patent an. Später wurde diese Röhre auch De-Forest-Ventil genannt und ist heute unter der Bezeichnung Triode bekannt. De Forests Neuerung war das Einsetzen einer dritten Elektrode, dem Gitter, zwischen die Kathode und die Anode in der von John Ambrose Fleming erfundenen Diode. Er wurde daraufhin von Fleming der Nachahmung bezichtigt.
"

(wen es interessier, kann sich Retro-Audion-Empfänger ansehen:

die Triode erinnert noch stark an eine Glühbirne =>

     


In der Folgezeit haben sich viele Wissenschaftler mit der Weiterentwicklung der Triode zu immer weiter verbesserten Elektronen-Röhren befaßt. Insbesondere durch neue Konstruktionen in Verbindung mit weiteren Gittern wurden Röhren für spezielle Anwendungen geschaffen. Solche Röhren sind z.B.:
      Tetrode, Pentode, Hexode, Heptode, Oktode, Mehrsystemröhren, Abstimmanzeigeröhre, Röhren in Netzgeräten usw.

Mit den folgenden Links kann man sich selbst einen Überblick verschaffen:


      Guglielmo Marconi
(25.April 1874; † 20.Juli 1937)

Nach Wikipedia:
"
Guglielmo Marconi war ein italienischer Radiopionier und Unternehmensgründer.
Im Jahr 1909 bekam er für seine praktischen Arbeiten im Bereich der Funktelegrafie gemeinsam mit Ferdinand Braun, der die theoretischen Grundlagen dazu erarbeitete, den
Nobelpreis für Physik.

Marconi konnte mit ersten Experimentalaufbauten Distanzen von ca. zwei Kilometer drahtlos überbrücken. Als Sender verwendete er Knallfunkensender, modifizierte die Aufbauten in verschiedenen Details und probierte in Versuchen verschiedene Verbesserungen aus.
Im Mai 1897 wurden, auf Intention von Preece, vom British Post Office erste Sendeversuche im Bristolkanal von der Insel Flat Holm zum Festland zunächst über eine Distanz von etwa sechs Kilometern unternommen.
Am 12. Dezember 1901 gelang dann von Poldhu aus der erste, allerdings unbestätigte transatlantische Funkempfang eines nur sehr kurzen Signals, drei Punkte für den Morsecode des Buchstaben S.
Am 18. Januar 1903 gelang die erste öffentliche transatlantische Kommunikation: Marconi tauschte von der Marconi Wireless Station in Cape Cod, Massachusetts, Grußbotschaften zwischen US-Präsident Theodore Roosevelt und dem König von England Eduard VII. aus.
"

Marconi's Versuchsaufbau: Sender und Empfänger =>

     


      Manfred Baron von Ardenne
(20.Januar 1907; † 26 Mai 1997)

In diese Aufzählung der Wissenschaftler, die sich um die Verbreitung der Funktechnik gekümmert haben, sollte man auch Manfred v. Ardenne nennen. Neben vielen anderen seiner Forschungen muss man seine Forschung zu Mehrsystemröhren und die daraus entstandene Dreifachtriode, plus weiteren Bauelementen, nennen und natürlich auch die Forschung zur Kathodenstrahlröhre und die daraus resultierende Entwicklung der Fernsehübertrageng!
Mit der Entwicklung der Mehrsystemröhren, kombiniert mit weiteren Bauelementen, wurde von ihm der Grundstein für integrierte Bauelemente gelegt.

Nach Wikipedia:
"
1926: M.v. Ardenne konstruiert einen kleinen Widerstandsverstärker mit drei Trioden und dazu gehörigen passiven Bauelementen (Grundlage für die Idee, den Großteil eines Radioempfängers in einem Glaskolben unterzubringen); wird verwirklicht bei der "Loewe-Dreifachröhre", von der die Orthophon Apparatebau GmbH (B. Loewe) etwa 1 Million Stück baut.

Von Ardenne entwickelte gemeinsam mit Loewe, dem das Patent erteilt wurde, eine der ersten Mehrsystemröhren. In der sogenannten Dreifachröhre vom Typ 3NF befanden sich drei Triodensysteme, vier Widerstände und zwei Kondensatoren. Sie gilt als einer der ersten integrierten Schaltkreise und wurde im Ortsempfänger OE 333 eingesetzt.
"

           

Nach Wikipedia:
"
Die weltweit erste Fernsehübertragung mit Kathodenstrahlröhre gelang Manfred von Ardenne am 14. Dezember 1930 in seinem Lichterfelder Laboratorium. Zur Funkausstellung in Berlin führte er ab dem 21. August 1931 das erste elektronische Fernsehen vor.
"

     


      Heinrich Georg Barkhausen
(2.Dezember 1881; † 20.Februar 1956)

Nach Wikipedia:
"
Barkhausen war ein deutscher Physiker. Nach ihm sind in der Physik und Technik unter anderem der magnetische Barkhausen-Effekt, die Barkhausenschaltung, die Barkhausen-Kurz-Schwingung, die Barkhausensche Röhrenformel und das Stabilitätskriterium von Barkhausen benannt

1919 Barkhausen Röhrengleichung/Formel

Im Jahr 1923 erschien der erste Band des Lehrbuchs für Elektronenröhren, welches schon 1924 eine Verbesserung erfuhr. 1925 folgte der zweite Band über Röhrensender, 1929 der dritte über Röhrenempfänger und schließlich noch ein vierter Band.
Dieses Standardwerk war bis zum Ende der Röhrenära sämtlichen Radiokonstrukteuren bekannt, vor allem hierdurch wurde der Name Barkhausen zum Begriff. Nach Wikipedia: "

Als Wissenschaftler hatte Barkhausen natürlich auch die weitere Entwicklung der aktiven Bauelemente der Funkübertragung im Blick:

Nach Wikipedia:
"
Aus dem Vorwort eines Buches zur Elektrotechnik von Barkhausen aus den fünfziger Jahren:
Die Entwicklungsjahre, die Sturm- und Drang-Periode der Elektronenröhren, in der fast jeder Tag interessante Entdeckungen, geistreiche Erfindungen oder neue technische Anwendungen brachte, ist vorüber.
Die eigentliche Entwicklung der Elektronenröhre ist abgeschlossen.
"

Schottky Röhrentheorie



Nachbau_des_ersten_Transistors
      Transistor

Nach Wikipedia:
"
Ab 1942 experimentierte Herbert Mataré bei Telefunken mit dem von ihm als Duodiode (Doppelspitzendiode) bezeichneten Bauelement im Rahmen der Entwicklung eines Detektors für Doppler-Funkmess-Systeme (RADAR). Die von Mataré dazu aufgebauten Duodioden waren Punktkontakt-Dioden auf Halbleiterbasis mit zwei sehr nahe beieinander stehenden Metallkontakten auf dem Halbleitersubstrat.

      Dabei entdeckte er bei den Experimenten mit Germanium Effekte, die sich nicht durch die Betrachtung als zwei unabhängig arbeitende Dioden erklären ließen:
Die Spannung an der einen Diode konnte den Strom durch die andere Diode beeinflussen. Diese Beobachtung bildete die Grundidee für die später folgenden Spitzentransistoren.

            Aus Unterlagen geht hervor, dass Shockley und Pearson funktionierende Transistoren gebaut haben, die auf den Patenten von Lilienfeld und Heil basieren.
     
"


      (nach LEIFI Physik):
in den 1950-er Jahren gab es einen Wettlauf zwischen der Elektronenröhre und den damals üblichen Bipolartransistoren, in dem die Chancen des Bipolartransistors wegen der vergleichsweise niedrigen Transitfrequenzen häufig eher skeptisch beurteilt wurden.
Die geringe Größe, der geringe Energiebedarf und später die zunehmenden Transitfrequenzen der Transistoren führten jedoch dazu, dass die Elektronenröhren als Signalverstärker mittlerweile auf fast allen technischen Gebieten abgelöst wurden.
Teilweise werden Röhren noch in der Sendetechnik im Rundfunk und bei manchen speziellen Gitarren- und Audioverstärkern verwendet.
1947 Spitzentransistor

Etwa 1962 wurde die Elektronenröhre vom Transistor überholt (siehe Grafik links).

      1959 wurde das erste in der DDR hergestellte Rundfunkgerät, dessen Funktion vollständig auf der damals neuartigen Transistor-Technik beruhte, auf den Markt gebracht, das Transistorradio "Sternchen". Verbaut waren anfangs Importtransistoren, z.B. der OC 44.
Äußerlich sah dieses Teil noch wie eine kleine Röhre aus.

            In der späteren Produktion des Rundfunkempfängers "Sternchen" wurden dann ausschließlich Transistoren aus der DDR-Produktion eingesetzt.
Das waren keine Spitzentransistoren, sondern Junction-Transistor (Grenzflächen-Transistor). Shockley beschrieb den neuen Typ als "Sandwich-Transistor" der aus drei Schichten besteht.
Beim Basteln war jedoch das Einlöten schwierig, die Germanium-Transistoren durften nicht heiß werden, daran sind bei mir die meisten "gestorben".

      Der Übergang zum Basismaterial Silizium, mit verbesserten Technologien, schafft für fast alle Anwendungsfälle die notwendigen Bauelemente. Insbesondere haben die Feldeffekt-Transistoren eine enorme Weiterentwicklung erfahren, wovon stark die Digitaltechnik profitiert.


Integrierte Schaltungen

     
      Nach Wikipedia:
"
Auf Vorschlag Jack Kilbys (1958) ging man dazu über nicht mehr einzelne Transistoren herzustellen, sondern auf einem Festkörperplättchen alle für eine Schaltung notwendigen Bauteile (Dioden, Transistoren, Widerstände usw.) zu integrieren. Solche Anordnungen heißen dann Integrated Circuits, kurz IC.
Sein erster integrierte Schaltkreis (ein Flipflop) bestand aus zwei Bipolartransistoren, welche auf einem Germanium-Substrat befestigt und durch Golddrähte verbunden wurden.
Dieser Hybrid-Schaltkreis ist somit ein erstes Beispiel der Umsetzung der schon bekannten Transistor-Transistor-Logik (TTL) auf einen Schaltkreis. Sie war eine Vorstufe zur Weiterentwicklung der TTL-Schaltungen hin zu kleineren Bauformen.

"

      Das Problem war, dass keine Firma diese Schaltkreise nutzen wollte. Erst als er diese Art von Schaltkreisen für den Aufbau eines kleinen Taschenrechner nutzte, gelang der Durchbruch.
Kilby wurde so zum Erfinder des Taschenrechners.

Das Bild links stellt das Bauelement "Mehrsystemröhre 3NF" von Manfred v. Ardenne dar.
Es gilt dies als "erster integrierter Schaltkreis". Um ein Radio damit zu bauen waren nur wenige weitere Bauelemente notwendig. Es ist der Anfang der Entwicklung, der von Kilby beschritten wurde.

Weiter ausgebaut wurde diese Variante in den 60-er Jahren von den Keramischen Werken Hermsdorf in der DDR.


Keramische
Werke
Hermsdorf
      Diese Entwicklung hat die Bezeichnung KME-Bauelemente, sie waren Integrierte Schaltkreise in Dünnschicht-Hybrid-Technik. Die Bausteine enthalten vorrangig digitale logische aber auch analoge Grundschaltungen.

Auf einem Glasträger (anfangs auch Keramik) wurde ein Widerstandsnetzwerk im Vakuum aufgedampft (alle Widerstände der Schaltung). Alle anderen Bauelemente, wie Transistoren, Dioden und Kondensatoren (kleinere wurden später auch durch Aufdampfen erzeugt) wurden auf das Netzwerk aufgeklebt und mit dem Netzwerk verlötet. Mit dem Netzwerk wurden auch die Anschlussbeine durch Verlöten verbunden.
In dieser Weise wurden so digitale Schaltungen mit ein oder zwei logischen Elementen oder analoge Schaltungen mit bis zu 3 Transistoren erzeugt. In der Zeit, in der zunehmend digitale Rechner aufgebaut wurden, war diese Technologie ein erheblicher Fortschritt gegenüber denen mit diskreter Technologie.
In der weit verbreiteten Baureihe KME-3 wurden logische Bauelemente in der NOR-Funktion mit unterschiedlichsten Eingängen und Flip-Flops bereitgestellt. Da auch viele Punkte der Schaltungen nach außen geführt wurden, konnten durch externe Beschaltungen die Teile an unterschiedlichste Aufgaben angepaßt werden.

Analoge Schaltungen gab es in dieser Technologie auch, aber wenig. Bekannt geworden ist der Breitband-Verstärker BV12:

      Nach dem System zur Kennzeichnung hat er folgende Bezeichnung:
21-31211 (analoger Verstärker, 3 stufig)
Das Bauelement war jedoch mehr unter der Bezeichnung BV12 bekannt.

(weitere Informationen findet man unter: Digitale Schaltungen - KME3-Technologie)

Dieser Schaltkreis entspricht vom Konzept her sehr stark der 3NF (links)


Integrierte Schaltkreise

      Den ersten "monolithischen", d. h. aus bzw. in einem einzigen einkristallinen Substrat gefertigten, integrierten Schaltkreis meldete Robert Noyce im Juli 1959 zum Patent an.
Das Entscheidende an der Erfindung von Noyce war die komplette Fertigung der Bauelemente einschließlich Verdrahtung auf einem Substrat.
1957 gründet er Fairchild Semiconductor; 1968 verließ er Fairchild Semiconductor und gründete mit Gordon E. Moore die Firma Intel!

Die Entwicklung in den folgenden 60 Jahren (von Noyce 1959 bis 2019) ist rasant und unbeschreiblich:

Im Jahr 2010 enthielten Grafik-Prozessoren bis zu drei Milliarden Transistoren (siehe Nvidia Tesla), "normale" General-Purpose-CPUs bis zu 1,17 Milliarden Transistoren (Intel Core i7-980X).
Der Itanium 2 Tukwila besteht aus 2,05 Milliarden Transistoren. Mittlerweile sind Grafikprozessoren bei Transistorzahlen von über acht Milliarden Transistoren angelangt (Nvidia GTX TitanX). Noch größere Zahlen werden bei Speicherbausteinen erreicht, bei allerdings geringerer Komplexität des gesamten Chips.


Irgendwo hier in der Aufzählung muss man noch einmal ganz weit nach hinten in die Vergangenheit zurück greifen, denn alles folgende basiert auf der Anwendung der digitalen Rechentechnik.
      Sofort fällt sicher jedem der Name Konrad Zuse ein
(22.Juni 1910; † 18.Dezember 1995)
er hat 1937(1941) den ersten programmgesteuerten Digitalrechner gebaut!
(kaum zu glauben, aber ich habe den Herrn Zuse zu einem Koloquium vor 1990 (noch DDR, da gab es ja schon PCs) an der Uni Rostock erlebt, es war höchst interessant)

Die Wurzeln der Digitaltechnik sind jedoch weit früher zu finden.
Gottfried Wilhelm Leibniz (Juli 1646; † 14. November 1716) gilt als deren Erfinder!
nach WikiPedia
"
Er war ein deutscher Philosoph, Mathematiker, Jurist, Historiker und politischer Berater der frühen Aufklärung. Er gilt als der universale Geist seiner Zeit und war einer der bedeutendsten Philosophen des ausgehenden 17. und beginnenden 18. Jahrhunderts sowie einer der wichtigsten Vordenker der Aufklärung. Im 18. Jahrhundert wird er vielfach als „Gottfried Wilhelm Freiherr von Leibniz“ bezeichnet; doch bislang fehlt eine Beurkundung über eine Nobilitierung."

Zu folgenden Themen gibt es Forschungsergebnisse:

  • Beschreibung des Dualsystems
  • Entwicklung der Dezimalklassifikation
  • Pläne für ein Unterseeboot
  • Verbesserung der Technik von Türschlössern
  • Gerät zur Bestimmung der Windgeschwindigkeit
  • Rat an Ärzte zur regelmäßigen Fiebermessung
  • Gründung einer Witwen- und Waisenkasse
  • Beweis für das Unbewusste des Menschen
  • Infinitesimalrechnung (Integralrechnung und Differentialrechnung)
  • Matrizen und Determinanten
  • symbolische Logik in Kalkülform (~200 Jahre vor Bool)
  • Erfindung der Staffelwalze für eine mechanische Rechenmaschine
  • Entwicklung der Endloskette zur Erzförderung im Bergbau

Leibniz ging davon aus, dass eine Zahl immer den gleichen Wert hat und nicht interpretierbar ist. Anders Wörter, diese können unterschiedlich interpretiert werden, manche haben auch unterschiedliche Bedeutung, z.B. Tau und Tau, was sowohl ein dickes Seil oder Feuchtigkeit sein kann.
Also ein fehlerfreier Austausch von Informationen kann nur auf der Basis von Zahlen möglich sein.
Er ging sogar soweit, dass er meinte, dass Denken ein Rechenvorgang sei!
nach Wikipedia:
"
Für Leibniz galt die Devise: "Ohne Gott ist nichts." Deshalb setzte er für Gott die Eins und für das Nichts die Null."
Leibniz sah sich selbst so: "Mir kommen morgens manchmal so viele Gedanken während einer Stunde, die ich noch im Bett liege, dass ich den ganzen Vormittag und bisweilen den ganzen Tag und länger brauche, um sie klar zu Papier zu bringen"
Er benutzte Papier zum Aufschreiben, jede Stelle des Papiers und mit kleiner Schrift. Es kam auch vor, dass er etwas an völlig anderer Stelle schrieb, zu einem anderen Thema. Später schnitt er das Papier dann so auseinander, dass er wieder die Themen zusammenlegen konnte.

            So etwa sah das dann aus!
Man hat bis heute noch nicht alle Schnipsel zusammen ordnen können, man vermutet, dass es noch einige neue Erkenntnisse geben wird.

Aussage von Leibniz:
"Es ist unwürdig, die Zeit von hervorragenden Leuten mit knechtischen Rechenarbeiten zu verschwenden, weil bei Einsatz einer Maschine auch der Einfältigste die Ergebnisse sicher hinschreiben kann!"
Das war die Motivation eine Rechenmaschine zu bauen.

      nach Wikipedia:
" Leibnizens Rechenmaschine war ein historischer Meilenstein im Bau von mechanischen Rechenmaschinen. Das von ihm erfundene Staffelwalzenprinzip, mit dem Multiplikationen auf mechanische Weise realisiert werden konnten, hielt sich über 200 Jahre als unverzichtbare Basistechnik. Die feinmechanischen Probleme, die es beim Bau einer solchen Maschine zu überwinden galt, waren jedoch so immens, dass berechtigte Zweifel daran bestehen, ob zu Leibnizens Lebzeiten jemals eine fehlerfrei arbeitende Maschine realisiert werden konnte. Eine fehlerfrei arbeitende Replik nach Leibnizens Konstruktionsplan konnte erst 1990 durch Nikolaus Joachim Lehmann (Dresden) realisiert werden."
(die Rechenmaschine konnte die 4 Grundrechenarten, potenzieren und Wurzel ziehen!)

nach Wikipedia:
"Im weiteren Sinne war Leibniz wegbereitend für die Rechenmaschine im heutigen Sinne, den Computer. Er entdeckte, dass sich Rechenprozesse viel einfacher mit einer binären Zahlencodierung durchführen lassen, und ferner, dass sich mittels des binären Zahlencodes die Prinzipien der Arithmetik mit den Prinzipien der Logik verknüpfen lassen (siehe De progressione Dyadica, 1679; oder Explication de l’Arithmetique Binaire, 1703). Die hier erforschten Prinzipien wurden erst 230 Jahre später in der Konstruktion von Rechenmaschinen eingesetzt (z. B. bei der Zuse Z1)!"
Die oben beschrieben Rechenmaschine basierte jedoch auf dem Dezimal-Zahlensystem.

            links stellt er in seinen Schriften die Dezimalzahlen durch Dualzahlen dar (das sollte jedem Computermenschen bekannt sein).
Größere Dezimal-Zahlen lassen sich schlecht durch probieren ermitteln, dazu hat er den rechts dargestellten und noch heute genutzten Algorhythmus dargestellt:

Wertdiv.
ganzz/2
ganzz
Erg
Rest
9:2=41
4:2=20
2:2=10
1:2=01

Der Rest von unten nach oben dargestellt ergibt:
1 x 23 + 0 x 22 + 0 x 21 + 1 x 20 =
8 + 0 + 0 + 1 = 9

 

nach WikiPedia:
" ... Leibniz ... Er entdeckte, dass sich Rechenprozesse viel einfacher mit einer binären Zahlencodierung durchführen lassen, und ferner, dass sich mittels des binären Zahlencodes die Prinzipien der Arithmetik mit den Prinzipien der Logik verknüpfen lassen"

Die Basis eines Rechenwerks ist ein Addierwerk (Werk stammt wohl noch aus der Zeit der mechanischen Rechenmaschinen), das gilt auch für die digitale Welt. Man reduziert die Addition auf zwei Werte und da wird wie in der dezimalen Welt von rechts beginnend stellenweise die Addition für die Zahlen durchgeführt (geht auch anders).
      So könnte so ein Teil aussehen, 2 Bits a und b sind der Eingang, heraus kommt die Summe S, aber wenn der Wertebereich überschritten ist, muss auch ein Übertrag Ün (Übertrag neu) vermerkt werden!
Dieses Teil läßt sich nur für die 1.Stelle verwenden, denn schon in der 2.Stelle könnte es sein, dass auch der Übertrag aus der 1.Stelle mit bei der Addition berücksichtigt werden muss!

      Man braucht also 3 Eingänge, Sowohl die Summe S als auch der Übertrag Ün werden nun aus 3 Werten berechnet.

      So sieht dann ein aus diesem Addierer erstelltes 4 Bit Rechenwerk aus. Wird auch für die 1. Stelle der zuletzt beschriebene Addierer verwendet, wird der erste Eingang Ü einfach mit 0 belegt, denn es gilt:
x + 0 = x (eine Null ändert nicht den Wert des Ergebnisses bei der Addition)

Wieder zurück zum Addierer für eine Stelle.
Bei 3 Eingängen gibt es binär 8 Kombinationen, die schreiben wir einfach in eine Tabelle. Zusätzlich werden für die jeweiligen Kombinationen der Eingangswerte die Werte für die Summe und den Übertrag in die Tabelle eingetragen.

      Ich habe bewußt "eintragen" von S und Ün gesagt, denn man kann Beliebiges da eintragen, sinnvoll ist natürlich die Werte entsprechend der arithmetischen Regeln zu berechnen.
Z.B.
Zeile S1: S = a + b + Ü = 1 + 0 + 0 = 1 (Summe 0 + 1 = 1)
Zeile Ü1: S = a + b + Ü = 1 + 1 + 0 = 0
         Ün: f(a,b,Ü) → Ün = 1
Bei Zeile Ü1 wäre die Summe dezimal 2, binär haben wir aber damit bereits den Wertebereich überschritten, so dass die Summe 0 ist, aber der Übertrag wird auf 1 gesetzt (dezimal z.B. 9 + 1 = 0, Übertrag = 1)

Der nächste Schritt stellt nun die Verbindung von Arithmetik und Logik her!

Es werden alle Zeilen, die als Ergebnis eine 1 haben (S = 1 oder/und Ü = 1) zur weiteren Bearbeitung heran gezogen. Man stellt die Frage:
"Bei welcher Kombination von a, b und Ü entsteht eine 1?"
Man muss dazu die Schreibweise der Eingänge definieren:
Hat der Eingang den Wert 1 , wird die Bezeichnung des Eingangs einfach hingeschrieben, z.B. bei Zeile S1 hat a den Wert 1, also schreibt man einfach a hin.
Ist hingegen der Wert 0, dann bedeutet das, er ist nicht 1 , wir wollen dafür nWert schreiben, also bei Zeile S1 nb und . Die exakte Schreibweise ist ein Querstrich über dem Wert:
z.B.  
Nun kann man verbal definieren, wann eine 1 bei S vorhanden ist, z.B. Zeile S1:
wenn a = 1 und b ≠ 1 und Ü ≠ 1 dann ist S = 1
Zuvor hatten wir bereits eine andere Schreibweise definiert, die setzen wir nun ein:
a und nb und nÜ → S = 1
Das "+" und das "und" haben unterschiedliche Funktionen, das "+" ist ein arithmetischer Operator, das "und" ein logischer, es fordert Dinge, wir sprechen auch hier von Variablen, auf da zu sein. Um die Unterschiede sichtbar zu machen gibt es für "und" das Rechenzeichen oder man läßt es weg:
a ∧ nb ∧ nÜ = a nb nÜ → S = 1
Und nun mit Werten:
1 ∧ n0 ∧ n0 = 1 ∧ 1 ∧ 1 = 1
Und das sind zugleich die ersten zwei logischen Gesetze: n0 = 1 gilt auch anders herum n1 = 0 und
das Ergebnis einer logischen "UND"-Funktion ist nur 1 wenn alle Eingänge 1 sind.

Betrachtet man die Tabelle, sieht man, dass die Situation, dass S gleich 1 wird noch an weiteren 3 Zeilen auftritt, also tritt das bei Zeile 2 oder bei Zeile 3 oder bei Zeile 5 oder bei Zeile 8 auf. Die Zeilen kann man wie eben dargestellt beschreiben:
a ∧ nb ∧ nÜ oder na ∧ b ∧ nÜ oder na ∧ nb ∧ Ü oder a ∧ b ∧ Ü
Für "oder" hat man ebenfalls das neue Rechenzeichen erfunden. S ergibt also aus:
S = a ∧ nb ∧ nÜ ∨ na ∧ b ∧ nÜ ∨ na ∧ nb ∧ Ü ∨ a ∧ b ∧ Ü oder
S = a nb nÜ ∨ na b nÜ ∨ na nb Ü ∨ a b Ü oder

In gleicher Weise kann man mit dem Übertrag Ün (Übertrag neu) verfahren:

Das kann man noch vereinfachen (die Methoden kann man an anderer Stelle nachlesen)

Das Ergebnis dieser Aktionen ist, das wir die arithmetische Funktion der Addition in logische Funktionen umgewandelt haben.
Leibniz hat vermutlich diesen Weg auch gefunden, woran es dann mangelte, waren die Möglichkeiten zur Realisierung der logischen Funktionen. Was vielleicht schon gegangen wäre, ist Pneumatik (Druckluft konnte man schon erzeugen (es gab später komplette Analogrechner auf dieser Basis), Hydraulik? und Elektrik gab es noch nicht! Offensichtlich war es zu der Zeit eine Sackgasse, es waren neue Methoden ohne Anwendung?
Herr Zuse hat 200 Jahre später wohl ähnliche Gedanken gehabt und hat, da er den Relais und den Röhren nicht so recht vertraut hat, eine komplett mechanische Realisierung eines Digitalrechners erfunden, das währe zu Leibniz Zeiten auch schon möglich gewesen!

      Hinweis:
Das ist die klassische Schaltung, aber es gibt weitere einfache Lösungsvarianten zum Addierer, mit anderen logischen Bauelementen (siehe ...)

 

Heute

gibt es die Elektronik und Bauelemente mit den unterschiedlichsten Funktionen
Die beiden Formeln (Schaltfunktionen) werden durch entsprechende Bauelemente verschaltet.

Zuerst werden alle drei Eingangssignale auch negiert. Von den 6 Leitungen greift dann jedes UND-Gatter die notwendigen Signale ab. Die Ergebnisse werden durch ODER-Gatter zur Summe S und zum Übertrag Ün zusammengefügt und als Ausgang bereit gestellt.
           
ANDORNEG
So entsteht genau der oben beschriebene Addierer für eine Stelle im Dualsystem!

Noch ein Hinweis:
Für heutige Rechner ist solche Lösung möglich, sie ist jedoch vom Prinzip her zu langsam, da nutzt man noch andere Methoden zur Addition.

      Rechentechnik

Gottfried Wilhelm Leibniz


Digitaler Signalprozessor
DSP

      Die von Noyce 1959 ausgelöste Entwicklung ist enorm. Beflügelt durch die Schaffung leistungsstärkerer Rechner, werden immer mehr logische Funktionen auf so einem Chip untergebracht. Aber nicht nur für die Rechentechnik werden damit immer neuere und weitere Möglichkeiten geschaffen, sondern auf grund der Leistungsdichte und Geschwindigkeit können eine große Menge von Anwendungen mit dieser Technik gesteuert werden, sind sogar erst möglich geworden.

So kann man auch neue Anwendungen in der Funktechnik finden, so z.B. der DSP (Digitaler Signalprozessor).
DSP's werden für die verschiedensten Anwendungen hergestellt, es sind festverdrahtete und programmierte Rechner mit speziellen Ein- und Ausgängen. Der DSP BK 1068 ist speziell für den Aufbau eines UKW-Empfängers bestimmt (Block-Bild links).

      Das Teil wandelt das analoge hochfrequente Signal (Welle) von bis zu 108 MHz in digitale Signale um und bearbeitet sie natürlich in Echtzeit weiter digital (Verstärkung ist ja nur eine Multiplikation, einen Drehkondensator braucht man auch nicht mehr, die Auswahl der Frequenz erfolgt auch auf digitalem Weg). Am Ende dann muss das Ergebnis aber wieder in analoge Signale gewandelt werden, da wir nur analoge Signale hören können.

Nach Kainka Elektronik Labor:
http://www.elektronik-labor.de/Lernpakete/UKWradioTouch.html

"
Das Stichwort lautet DSP (Digitaler Signal-Prozessor). Analoge Signale von der Antenne werden in digitale Signale umgesetzt, digital verarbeitet und dann über einen Analog-Digitalwandler in ein analoges Audio-Signal zurück verwandelt. Das hört sich kompliziert an, ist aber für den Anwender besonders einfach. Keine Hochfrequenzspulen mehr, kein Abgleich von Bauteilen und insgesamt weniger Bauteile bei gleichzeitig besserer Empfangsleistung.

Technische Beschreibung
Das komplexe Empfänger-IC BK1068 bildet den Kern des Radios. Das Blockschaltbild zeigt den inneren Aufbau in groben Zügen. Das Antennensignal wird im analogen Teil der Schaltung durch einen hochempfindlichen Verstärker (LNA, Low Noise Amplifier, Verstärker mit geringem Rauschen) angehoben, wobei ein geregelter Verstärker (PGA, Programmable Gain Amplifier) die Verstärkung bei zu starken Signalen reduziert.
Der Analog-Digital-Wandler (ADC, Analog Digital Converter) setzt das Signal in eine Zahlenfolge um, die dann digital weiter verarbeitet wird. Die Verarbeitung übernimmt ein digitaler Signalprozessor. Er filtert und demoduliert das frequenzmodulierte Signal und filtert das Audiosignal, sodass nur der Audio-Frequenzbereich ausgegeben wird. Außerdem steuert er die automatische Verstärkungsregelung (AGC, Automatic Gain Control), sodass eine Übersteuerung vermieden wird.
Das so verarbeitete Signal gelangt an den Digital-Analog-Wandler (DAC, Digital Analog Converter), der es in einen Audiosignal umwandelt. Am analogen Ausgang Aout liegt das fertige Radiosignal, das man z.B. mit einem Kopfhörer direkt hören könnte.
"

(weitere Informationen zum Aufbau eines UKW-Radios mit diesem DSP)


Funk-Telefon


Smart-Phon

      Funksender gibt es schon eine Weile, der Wunsch war jedoch die Geräte kleiner zu machen, so dass man sie mitnehmen konnte.
Aber erst mit dem Aufbau eines kleinmaschigen Funknetzes (viele Sendemasten) war es ab der 90-er Jahre möglich die Leistung der mobilen Geräte zu verringern und somit auch die eigentlichen Funkgeräte kleiner zu bauen.


Handy – Erfinder:
1973 Martin Cooper
      (nach Wikipedia):
" Es brauchte schon eine kräftige Hand, um das erste Mobiltelefon sicher zu halten: Das Modell „Dynatac 8000X“ des US-Herstellers Motorola wog rund 800 Gramm und war volle 33 Zentimeter lang. Fast 4000 US-Dollar mussten die Handy-Käufer für das wuchtige Gerät mit der ausladenden Antenne hinlegen. Viele Bauteile, die der Chef-Entwickler Martin Cooper im Jahr 1973 bei seiner Konstruktion verwendete, stammten ursprünglich aus Radios. Und außer simplen Telefongesprächen hatte das Handy noch keine der unzähligen „Zusatz-“Funktionen, die heutige Smartphones zu tragbaren Allroundcomputern machen.
"

      Die erste Etappe bei der Gestaltung war die Nachgestaltung der Endgeräte aus dem Festnetz.
Die Tasten waren fest eingebaut, es gab eine kleine LCD-Anzeige (mit z.T. festen Positionen für feste Ausschriften) und eine festverdrahtete Elektronik, die das alles steuerte.
Man konnte telefonieren und SMS verschicken.
Wollte man anderes und mehr, musste ein neues Telefon erstellt werden.

Die zuvor beschriebene Entwicklung des DSP (Digitaler Signalprozessor) hielt nun auch auf diesem Gebiet seinen Einzug.
Die analogen Funksignale wurden in digitale gewandelt, bearbeitet und wieder zu analogen gewandelt und dem Lautsprecher zugeleitet. Natürlich ging der Weg auch in entgegengesetzter Richtung (das ist neu gegenüber dem "alten" DSP, vom Mikrofon zum Absenden des Funksignals (muss ja modelliert werden).
Zur digitalen Bearbeitung des Signals wird ein Prozessor eingesetzt. Ist er schnell genug, hat er Zeit auch weitere Teile am Handy zu bedienen, wie z.B. einen kleinen Bildschirm einschließlich der Gestaltung und Abfrage von Bedienelementen, im einfachsten Fall Zahlen-Tasten. Die Geschwindigkeit und Leistung des Prozessors ist inzwischen so groß, dass weitere, teils völlig neue und Telefon unspezifische, Kommunikationen möglich sind - aus dem Telephon wird ein Smartphon!

Nach: DIE WELT/Wirtschaft
"
Aufbau und Arbeitsweise der mobilen Prozessoren unterscheiden sich radikal von PC-Modellen. Der Grund: AMD-und Intel Prozessoren für den PC verwenden noch immer die bereits 1978 von Intel entwickelte "x86-Architektur" und den dazugehörigen CISC-Befehlssatz ("Complex Instruction Set Computer").
Komplett anders als PC-Prozessoren.
Smartphones und Tablets benötigen dagegen Prozessoren, die effizienter arbeiten, damit sie den Akku nicht gleich leer saugen. Dafür brauchen sie ein anderes Funktionsprinzip, weshalb Prozessoren in mobilen Geräten mit dem RISC-Befehlssatz arbeiten. Dieser "Reduced Instruction Set Computer" startet beim Aufruf einer App zunächst nur die Grundfunktion.
Eine Schriftart wird erst dann geladen, wenn der Nutzer sie per Tipp gewählt hat. Diese vielen kleinen und präzisen Befehle ermöglichen ein flottes Arbeiten, obwohl die Central Processing Unit (CPU) deutlich weniger Leistung hat als ein PC-Modell.
Willkommener Nebeneffekt: Der geringere Stromverbrauch verursacht viel weniger Abwärme. Mobile Prozessoren benötigen daher keine Kühlung durch einen Lüfter und schonen zudem den Akku. Klein, stark und sparsam
"

Anmerkungen:
CISC-Befehlssatz ist für einen PC notwendig, es ist eine Maschine für universelle Anwendungen, man muss alle Möglichkeiten bearbeiten können.
Der RISC-Befehlssatz stellt nur die Befehle bereit, die für die Anwendung gebraucht werden, die Suche nach den Befehlen ist schneller, weil ja die Menge kleiner ist. Wird aber eine Aktion angewiesen, die eigentlich einen Befehl aus dem CISC-Satz braucht, dann muss dieser umständlich mit den vorhandenen Befehlen des RISC-Satzes erzeugt werden, das braucht dann viel mehr Zeit!.
Wie eine App geladen und abgearbeitet wird, legt das Betriebssystem fest, z.B. ADROID. Es ist ein Programm, das mit dem gegebenen Befehlssatz erstellt wurde.

Es werden nun 2 Bilder gezeigt, die grob den Aufbau und die Elemente eines Smartphon's zeigen (Bild links: ANDROID MAG):

Die analogen Funksignale betreffen nicht mehr nur die Telefonie (WCDMA, GSM) sondern auch GPS, TV(DVB), NFC/RFID, FM (Radio), Bluetooth, WLAN, Infrarot usw.. Das muss alles gewandelt werden. Alles zur gleichen Zeit werden den Prozessor überfordern. Erfahrungen zeigen, dass GPS in Verbindung mit Navigation sehr viel Leisung brauchen, so dass das Handy sehr warm wird und der Akku nach einer Stunde fast leer ist. Aber man kann einfach nur die notwendigen Dinge auswählen, die anderen abschalten.
USB gibt es auch und der Speicher kann mit einer extenen SMD-Karte erweitert werden, 2 Kameras usw.

Interessant sind die kleinen Kästchen unten auf dem linken Bild:

  • der Datenspeicher kann bis zu 64GByte (in diesem Fall) groß sein:
    entspricht 20.000Musik-Stücken oder dem Speicher von 1 Mio Mondlandefähren Apollo 13
  • das Rechenwerk hat teilweise 4 Recheneinheiten, schafft so viele Rechenoperationen (MFLOPS) wie der 10Mio Dollar teure "Cray-1-Supercomputer" von 1976!

Weiter-Entwicklung: Octa-Core-Prozessoren
      nach: "https://www.handyflash.de"
"
Ein Octa-Core-Prozessor ist ein Mikroprozessor mit insgesamt acht Rechenkernen, der sich für verschiedene elektronische Systeme eignet. Er kommt in jungen Generationen leistungsfähiger Smartphones und Tablet-PCs zum Einsatz, um den steigenden Bedarf nach hochauflösender mobiler Unterhaltung zu decken. Diese Art der zentralen Recheneinheit (CPU) ist auf dem mobilen Sektor weniger weit verbreitet als Mehrkernprozessoren mit zwei oder vier Einheiten.
"
?
Stand: April 2021 / Handy der Firma: Xiaomi/China; Preis unter 200€
Telefon-Type: Redmi Note 9S (6GB Ram, Speicher 128GB) Octacore Max 2,32GHz (ein Kern)
Oberfläche: MIUI Global 12.0.3

 

Das ist eine gewaltige Entwicklung die da in den letzten 30 Jahren vonstatten gegangen ist - und

es ist kein Ende in Sicht!

Nur Einer ist von der Entwicklung enttäuscht:
Cooper, der Erfinder des Handy's, hatte eine schnellere Entwicklung gedacht, jeder Mensch sollte bei Geburt eine Telfonnummer bekommen, als Chip gleich implementiert und er sollte mit seinen Gedanken wählen und so mit anderen Menschen Kontakt aufnehmen können - das dauert wohl noch ein bißchen!


Was folgt nun?

 

Wenn die Menschen so kommunizieren, alles was sie sich merken wollen in einem zentralen Speicher ablegen, bzw. alles dort "nachlesen" können (wir habe ja schon Cloud's und Google und Cortana und Co erklären alles auf Anfrage, es gibt Sprachnachrichten), dann brauchen die Menschen nicht mehr lesen und schreiben zu können, auch rechnen erledigt der zentrale Speicher, braucht man dann auch nicht mehr, alle visuellen Informationen können dann aber nur noch als Farbe oder Symbol dargestellt werden, was wir durchaus heute schon haben z.B. Verkehrszeichen, dann hat sich das ganze Leben komplett verändert.
Aber es bewegt sich alles in diese Richtung, das Auto stellt fest, dass der Fahrer wohl müde ist, es erkennt Verkehrsschilder und warnt, erkennt Fehler im Auto usw. selbst die Zahnbürste ist über BLuetooth mit dem Netz verbunden usw.
Wer eine Vorstellung zu dieser Situation und damit verbundenen Problemen erahnen will, sollte den utopischen Roman:
      "Heiner Rank; Die Ohnmacht der Almächtigen; 1973"
lesen. Zu beachten ist, dass der Roman genau in dem Jahr als das Handy von Herrn Cooper erfunden wurde, erschienen ist - Herr Rank hat da weit voraus gedacht, viele Dinge gibt es ja auch schon (nahezu übereinstimmend mit seinen Gedanken), andere noch nicht, es wird aber noch einiges so etwa kommen!?

Dazu ein paar aktuelle Informationen (Oktober 2019):
(nach t-online.de): "Darum lassen sich Menschen Mikrochips implantieren
Eine verschlossene Tür ohne Schlüssel öffnen: Mikrochips unter der Haut machen das möglich. Rund 3000 Schweden nutzen die implantierte Technologie bereits!"

      Momentan sind die Möglichkeiten noch ziemlich begrenzt, was an der Größe des Chips liegt. 880 Bytes sind um einiges weniger, als man für einen durchschnittlichen MP3-Musikordner benötigt. Das dürfte sich jedoch bald ändern, da die Biochips im Laufe der Jahre ständig weiterentwickelt werden.
(zwischen Daumen und Zeigefinger befinden sich die Chip's)

(nach heise): "Eric Leuthardt arbeitet daran, die Kommunikation der Nervenzellen im Detail zu entschlüsseln. Sein Ziel: die erste praktikable Gehirn-Computer-Schnittstelle".
Dann muss man nur noch lernen, mit seinen Gedanken die Schnittstelle zu bedienen!

Aber
so wie wir immer Update's machen müssen, um das System von Fehlern zu beseitigen und unerwünschte Zugriffe zu verhindern, kann dann auch der Zugriff auf den Menschen erfolgen,
er ist dann sehr leicht manipulierbar!!!

Aber - noch ein aber
man kann das aber auch positiv sehen, denn implementiert man z.B. so einen Chip, der mit Kamera ausgerüstet ist und verbindet ihn mit dem Sehnerv, dann können Blinde wieder sehen (daran arbeitet man).
Hat er im Chip noch einen Speicher und kann er ausgewählte Bilder auch dahin schicken, also steuern, dann kann der Mensch fotografieren ohne einen Fotoaparat zu haben!
oder
(nach Ärzte Zeitung, 17.05.2016): "Chip im Hirn bewegt Menschen
Technik und Computer helfen immer mehr Querschnittsgelähmten.
Nun kann ein Patient sogar seine eigene Hand mittels Chip im Hirn bewegen. Für wie viele das System infrage kommt, ist noch offen."


      Nun kommt Prof. Philippow wieder ins Spiel
In den Lehrveranstaltungen zur "Theoretischen Elektrotechnik" wurde uns von ihm so eingeprägt:

"Was tut ein Theoretiker als Erstes - er zweifelt!"

Damit meint er nicht, dass man immer Alles anzweifeln soll, sondern, wenn jemand behauptet, es gibt zu seiner Lösung keine Alternative - dann sollte man genau nachschauen!
z.B. es gibt keinen besseren (preiswerten) Leiter als Kupfer, so sollte man völlig erstaunt sein, dass es ein Material "Graphen" (siehe unten) gibt, was durchaus insgesammt bessere Eigenschaften hat.
Vor kurzem haben Wissenschaftler anhand eines mathematischen Theorems noch dargelegt, dass solche Strukturen nicht existieren können - und es gibt sie doch!
Da muss wohl auch das Theorem nicht richtig oder falsch angewendet worden sein.

Prof.Dr.sc.techn.Dr.h.c.mult. E.Philippow (†)

Und hier gleich so ein Beispiel
Das was sicher ist und schon lange in Gesetze gepackt ist - muss aber nicht stimmen!

Beispiel Myon

Haben bisher sicher wenige Menschen zur Kenntnis genommen
Dazu ein Artikel von:
Aylin Woodward - Business Insider Deutschland - Samstag, 17. April 2021
"
Neues Experiment bricht Regeln der Physik —
und deutet auf eine mysteriöse unbekannte Kraft hin, die unser Universum geformt hat

Eines der allgegenwärtigsten Teilchen im Universum, das Myon, gibt Forscherinnen und Forschern in der Physik Rätsel auf: Es verhält sich nicht, wie sie es erwarten. Tatsächlich weicht das Myon so sehr von den physikalischen Gesetzen ab, dass die physikalische Forschung inzwischen davon ausgeht, ihre Gesetzesannahmen noch einmal überprüfen zu müssen.

Gibt es eine Kraft im Universum, von der wir noch nichts wissen?

Myonen sind wie dicke Elektronen: Sie haben eine negative Ladung, sind aber 207 Mal schwerer als Elektronen. Dank ihrer Ladung und eines Drehimpulses, der Spin genannt wird, verhalten sie sich wie winzige Magneten. Werden Myonen in ein anderes Magnetfeld getaucht, kommt es zu einem winzigen Rotieren.
In einer Studie, die diese Woche veröffentlicht wurde, berichten Physiker am Fermi National Accelerator Laboratory, kurz Fermilab, im US-Bundesstaat Illinois von einer Diskrepanz zwischen der Frequenz, in der Myonen rotieren sollten, und dem tatsächlichen Ausmaß, in dem sie sich während eines Laborexperiments drehten. Viele Wissenschaftler sind davon überzeugt, dass an der Reaktion Teilchen oder Kräfte beteiligt sein müssen, die wir noch nicht entdeckt und erforscht haben, so erheblich ist der Unterschied.
Die Entdeckung liefert neue Beweise dafür, dass etwas Geheimnisvolles und bislang Unbekanntes bei der Entstehung unseres Universums eine Rolle gespielt hat – eine Kraft, die in den bestehenden Regeln der Physik bislang nicht vorzufinden ist. "Diese neue Messung könnte tatsächlich den Beginn einer Revolution unseres Verständnisses der Natur markieren", sagt Thomas Teubner in einem Gespräch mit Insider. Er ist Physiker der Universität Liverpool und Co-Autor der neuen Studie.
Es ist möglich, dass dieses unbekannte Phänomen auch mit der dunklen Materie zusammenhängt, einem Teil der Materie im All, die nicht sichtbar ist und sich nur durch die Gravitationskraft bemerkbar macht. Wissenschaftler gehen davon aus, dass sie kurz nach dem Urknall entstanden ist und etwa ein Viertel des gesamten Universums ausmachen.
"

Uff - da hat Einstein wohl was übersehen!
Das muss man weiter beobachten, es gibt vielleicht eine neue Beschreibung der Enstehung des Weltalls.

    Das ist der Ring-Beschleuniger in den USA, mit dem das Myon nachgewiesen wurde.

In Hamburg gibt es auch so einen Beschleuniger, das DESY (Deutsches Elektronen-Synchrotron) Der Ring hat einen Umpfang von 6336m. Die Elektronen und Protonen werden fast auf Lichtgeschwindikeit beschleunigt (entgegengesetzt) und müssen durch supra-leitende Magnete auf die Kreisbahn gezwungen werden.
Es ist schon beachtlich die Technik im Tunnel, bin schon einmal darin rumgelaufen, natürlich nicht im Betrieb, das hätte wohl Einfluss auf den Geist! →
   

History:
Myon, Elementarteilchen aus der Familie der Leptonen.
Das Myon hat die gleichen Quantenzahlen wie das Elektron, aber eine 207mal größere Masse.
Das Myon μ- ist elektrisch negativ, sein Antiteilchen μ+ elektrisch positiv geladen.
Es wurde 1937 von C.D. Anderson und S.H. Neddermayer in der kosmischen Strahlung in Nebelkammeraufnahmen entdeckt.

Die atmosphärischen Myonen sollten aufgrund ihrer kurzen, mittleren Lebensdauer von 2.197 Mikrosekunden am Erdboden gar nicht nachweisbar sein. Dies ist trotzdem gelungen! Man erklärt dies mit der Speziellen Relativitätstheorie: da sich die Myonen mit Geschwindigkeiten bewegen, die vergleichbar sind mit der Lichtgeschwindigkeit, werden relativistische Effekte wirksam. Die Zeitdilatation dehnt die Zerfallszeit im Ruhesystem gegenüber der Zeitspanne im Beobachtersystem aus. Dadurch können die Myonen einen längeren Weg durch die Atmosphäre zurücklegen als klassisch abgeleitet: sie schaffen es bis auf den Erdboden!


Plastik - Elektronik

      Parallel zu neuen Anwendungen wird natürlich auch immer nach neuen Materialien geforscht,
so entsteht z.Z. ein neues Gebiet "Plastik-Elektronik".
Das kann man gar nicht glauben, dass Plasik etwas in der Elektronik zu tun hat - als Isolator schon, aber als Leiter?

Man kennt z.B. als elektronische Bauelemente Feldeffekt-Transistoren. Neben den schon bekannten Typen MOS-FET und den weniger bekannten J-FET gibt es auf einmal auch O-FETs! Das "O" steht für organisch.

Was bedeutet "organisch"?

Das hat nichts mit Organen von Menschen oder Tieren zu tun, es ist ein aus der Chemie abgeleiter Begriff. Da kennt man die Organische und die Anorganische Chemie, Teile der verwendeten Werkstoffe für die OFETs entstammen der organischen Chemie und deren Verbindungen.
Das ist auch deshalb sehr interessant, da diese Materialien auch in anderen elektronischen Produkten genutzt werden könnten, z.B. LEDs (OLEDs gibt es wohl schon), Displays, Solarzellen, organische Speicher usw. Der Vorteil ist, man kann den Einsatz von Silizium und seltenen Erden reduzieren, die Produkte haben neue Eigenschaften, z.B.leicht und biegsam.

    Bildschirm am Handgelenk

!     nach WikiPedia
"
1976 entdeckten Hideki Shirakawa, Alan MacDiarmid und Alan Heeger (Chemienobelpreis 2000) bei mit Chlor bzw. Brom oxidiertem Polyacetylen eine um den Faktor 109 erhöhte Leitfähigkeit (also auf 103 S/cm). Die organischen Stoffe kamen damit in Bereiche der Leitfähigkeit, die sonst nur bei Halbleitern bzw. Metallen vorliegen (Kupfer: 106 S/cm). Dieser Effekt war bis dahin völlig unbekannt, denn alle Polymere galten bis dahin als Isolatoren."

Plastik wird zum Leiter

 

Aufbau OFETs

    Vom Prinzip her entspricht der Aufbau dem von MOSFETs
nach Wikipedia:
"
Wie anorganische Feldeffekttransistoren besitzen auch OFETs die drei Anschlüsse Source, Gate und Drain. Meist werden sie, ähnlich MOSFETs, als Dünnschichttransistor gefertigt, in dem die halbleitende Schicht nur wenige Nanometer dick ist. Wie bei MOSFETs ist auch bei organischen Dünnschichttransistoren das elektrische Potential des Substrates (bulk) wichtig und ist analog zu diesen als vierter Anschluss zu sehen.
Als halbleitende Schicht kommen verschiedene organische Materialien infrage. So kommen sowohl Polymere und Oligomere (z. B. Poly(3-Hexylthiophen)) als auch kleine Moleküle (engl. small molecules) wie z. B. Pentacen, Tetracen zum Einsatz. Neuere Forschungen haben gezeigt, dass auch Naturstoffe wie Indigoide oder Anthrachinone in Feldeffekttransistoren eingesetzt werden können. "

Dieses neue Fachgebiet ist die Organische Elektronik (Plastikelektronik)

Auch auf dem Gebiet der Speichertechnik, Speicherung von elektrischer Energie, gibt es starke Bemühungen, organische Materialien einzusetzen. Ein Ergebnis ist z.B. die
    Redox-Flow-Batterie
Dieser Stromspeicher arbeitet mit flüssigen Elektrolyten, die z.B. aus Lignin hergestellt werden – einem Naturprodukt, das in einer Größenordnung von Millionen Tonnen, die jährlich bei der Papierherstellung übrig bleiben (z.Z. wird es einfach verbrannt).

Für die Batterie im Haushalt ist das Teil jedoch noch nicht geeignet, aber man arbeiet daran (Jan.2020)!


Batterien aus Holz – neue Speicher für Wind- und Sonnenstrom
klingt völlig unsinnig, aber Lignin ist wohl in jeder Pflanze vorhanden, auch im Holz!


Ein neues Material - mit tollen Eigenschaften - das Material der Zukunft?

Graphen

nach Wikipedia:
"Graphen (Betonung auf der zweiten Silbe: Graphen)
oder
besser für die Formulierung wäre: Grapheen

Es ist eine Modifikation des Kohlenstoffs mit zweidimensionaler Struktur
     

In der Theorie wurden einlagige Kohlenstoffschichten, Graphene, zum ersten Mal verwendet, um den Aufbau und die elektronischen Eigenschaften komplexer aus Kohlenstoff bestehender Materialien beschreiben zu können.
Unendlich ausgedehnte und überall flache strikt zweidimensionale Strukturen
sind allerdings aufgrund eines rigorosen mathematischen Theorems, des Mermin-Wagner-Theorems und seiner Varianten, nicht möglich, da sie nachweislich thermodynamisch instabil sind."
aber
deshalb herrschte bei Chemikern und Physikern allgemeines Erstaunen,
als Konstantin Novoselov, Andre Geim und ihre Mitarbeiter 2004 die Darstellung freier, einschichtiger Graphenkristalle bekannt gaben.
Deren unerwartete Stabilität könnte durch die Existenz metastabiler Zustände oder durch Ausbildung einer unregelmäßigen Welligkeit (engl. crumpling) der Graphenschicht] erklärt werden.

2010 wurden Geim und Novoselov für ihre Untersuchungen mit dem Nobelpreis für Physik ausgezeichnet, nachdem sie nicht nur für die Darstellung dieser Systeme Entscheidendes geleistet hatten, sondern auch viele ihrer ungewöhnlichen Eigenschaften entdeckt hatten.

Eigenschaften

Graphen hat ungewöhnliche Eigenschaften, die es sowohl für die Grundlagenforschung als auch für Anwendungen interessant machen, und zwar vor allem in der Physik.
Beispielsweise sind Graphen-Flächeneinkristalle innerhalb der Flächen außerordentlich steif und fest.
Der Elastizitätsmodul entspricht mit ca. 1020 GPa dem von normalem Graphit entlang der Basalebenen und ist fast so groß wie der des Diamants.
Seine Zugfestigkeit von 1,25×1011 Pa ist die höchste, die je ermittelt wurde, und rund 125-mal höher als bei Stahl.
Ein Band aus Graphen von 1 m Breite und 3,35 × 10-10 m Dicke, also von einer Atomlage, hat daher eine Zugfestigkeit von 42 N.
Ein Band für einen Weltraumlift aus Graphen mit konstanter Querschnittsfläche würde in der Höhe der geostationären Umlaufbahn von 35.786 km erst zu 87,3 % seiner Reißfestigkeit belastet werden.
Ausgehend von monokristallinem Graphit mit einer Dichte von 2260 kg·m-3 und einem Schichtabstand von 3,35 × 10-10 m, errechnet sich durch Multiplikation für Graphen eine
Flächenmasse von 7,57 × 10-7 kg·m-2. Ein Quadratkilometer wiegt somit 757 g.
"Eine Graphen-Hängematte von einem Quadratmeter Größe könnte eine vier Kilogramm schwere Katze tragen – und selbst nur so viel wiegen wie ein einzelnes Schnurrhaar der Katze."

Auf Grund der Schwächung von sichtbarem Licht (alle Frequenzen) um 2,3% wird aber die Hängematte selbst nicht zu sehen sein - die "Katze schwebt".

Legt man mehr als 10 Schichten Graphen übereinander, erhält man Graphit.

Graphen verhält sich durch das Fehlen einer Bandlücke als Elektrischer Leiter Spezifischer elektrischer Widerstand 31Ωm

Grundlagenforschung und mögliche Anwendung
Wegen der hohen elektrischen Leitfähigkeit von Graphen wird derzeit an der Frage geforscht, ob Graphen Silicium als Transistormaterial ablösen könnte. Erste Erfolge wie die Darstellung eines Graphit-Microchips konnten bereits verbucht werden. Mit graphenbasierten Transistoren sollten Taktraten im Bereich von 500 bis 1000 GHz möglich sein. IBM gelang es Anfang 2010, erstmals einen 100-GHz-Transistor auf Graphenbasis herzustellen. Nach Untersuchungen von Yanqing Wu und Mitarbeitern vom April 2011 scheint Kohlenstoff mit Diamantstruktur geeignete Substrate zu ergeben.

 

Graphen-Akku: Potenzial und Funktion

Graphen - es leitet Strom eineinhalbmal besser als Kupfer. Damit qualifiziert es sich als essenzielles Bauteil schnell aufladbarer Energiespeicher.

Die große Stärke von Graphen-Akkus liegt in der erhöhten Kapazitat in der Zelle. Aufgrund der Stabilität und der guten Leitfähigkeit laden sich die Energiespeicher weitaus schneller auf als gangige Smartphone-Akkus. Diese verkürzten Ladezeiten wiederum, stehen in Verbindung mit einer vermeintlich erhöhten Lebensdauer.
Als innovativ gilt der Einsatz eines Graphen-Gels, welches verhindert, dass sich die Graphen-Atome zu Graphit verbinden. Somit soil eine Energiequelle entstehen, die sich innerhalb weniger Minuten auflädt. Die einschlägige Forschung hierzu steht jedoch noch am Anfang.


"Der Bau von biegsamen Energiequellen ist eine große Herausforderung, da bisher keine Werkstoffe sowohl mechanisch flexibel, stabil und zugleich sehr gut elektrisch leitfahig waren",
schreiben Kisuk Kang und seine Kollegen vom KAIST-Department of Materials Science and Engineering.
Doch mit der Entdeckung von Graphen, einem Material aus nur einer Atomlage dicken Kohlenstoffschichten, hatte die Suche ein Ende. So stapelten die Forscher viele flexible und dennoch bruch- und reißfeste Graphen-Lagen übereinander und ersetzten damit die heute noch starren Elektroden in Lithium-lonen-Akkus.
Potenzial, in Zukunft mehr Strom bei gleicher Akkugröße speichern zu können.
Das Team um Kisuk Kang erwartet, dass solche biegsamen Akkus besonders für die weitere Entwicklung von intelligenter Kleidung mit integrierten Monitoren and Prozessoren Impulse geben könnten.


Graphen hat äußerst bemerkenswerte Eigenschaften: Es ist nicht nur das dünnste, sondern auch das festeste Material. Es ist elastisch und leicht und stellt einen hervorragenden elektrischen und thermischen Leiter dar.

  Fazit: Graphen in der Welt von Morgen
Die zukünftigen Pläne der Forscher mit Graphenmaterial scheinen direkt aus Science-Fiction-Filmen zu stammen: Fernseher, die als Tapeten ausgerollt werden können und faltbare Bildschirme. Forscher erwarten trotz der aktuellen Unsicherheiten bahnbrechende Forschungserkenntnisse in den nächsten Jahren.


Blade - Batterie

Beitrag von:

https://energyload.eu/elektromobilitaet/elektroauto/superakku-byd/


BYD Company Limited, kurz BYD / Build your Dreams (BYD)

Weltweit ist das Unternehmen der größte Produzent von Akkumulatoren, vor allem für Mobiltelefone. Zudem ist ein Tochterunternehmen einer der größten Automobilproduzenten Chinas

BYD hat eine neue Batterie für Elektroautos vorgestellt, die neue Maßstäbe bei Reichweite und Sicherheit bietet. Die neue „Blade Battery“ auf Lithium-Eisenphosphat-Basis (LFP) zeichnet sich vor allem durch eine geringe Hitzeentwicklung aus. BYD will die Batterie auch an andere Autohersteller verkaufen.

Fokus auf Sicherheit
Das primäre Ziel bei der Entwicklung der Batterie sei Sicherheit gewesen, teilte BYD mit. Deshalb ist die Blade Battery im Vergleich zu herkömmlichen Lithium-Eisenphosphat-Akkus viel weniger anfällig für Brände. Außerdem konnte BYD die Raumnutzung innerhalb der neuen LFP-Batterie nach eigenen Angaben um 50 Prozent verbessern, was zu einer höheren Energiedichte und damit Reichweite führt.
BYD schreibt, bei einem Nageldurchdringungstest habe die Blade Battery nur Oberflächentemperaturen von 30 bis 60 Grad erreicht. Eine Lithium-Ionen-Batterie habe sich beim gleichen Test auf 500 Grad erhitzt, eine herkömmliche LFP-Blockbatterie immer noch auf 200 bis 400 Grad. Auch bei einem Überladungstest um 260 Prozent sei die neue Batterie weder explodiert noch in Brand geraten. Damit sinkt bei Elektroautos, in denen die Blade Battery verbaut ist, bei einem Unfall mit Beschädigung der Batterie das Brandrisiko.

Technische Details erklärt BYD nicht, sondern schreibt nur, dass die einzelnen Zellen zusammen in einem Array angeordnet und dann in einen Akkupack eingesetzt würden. Wie hoch die Energiedichte der Blade Battery genau ist, bleibt ebenso unklar.

(Wenn ich zwischen den Zeile lese, könnte hier wahrscheinlich bereits Graphen eine Rolle spielen)

      56 Lithium-Eisenphosphat-Akkuzellen Winston Battery /Thunder Sky LPF60AH



Rennert Startseite