Kilka słów o blogu
Proszę nie używać mojej pracy bez pytania - to niegrzecznie
28 lutego 2010
XXI wiek
XX wiek
W 1936 roku w Niemczech, Konrad Zuse tworzy maszynę liczącą Z1. W następnych latach powstają jej udoskonalone wersje - Z2 i Z3 (na rysunku obok)oraz Z4. Maszyny te przeznaczone były oczywiście dla potrzeb militarnych. Obliczenia wykonywane były na liczbach zapisanych w systemie dwójkowym w tak zwanej reprezentacji zmiennoprzecinkowej. Sterowanie maszyną realizował program zapisany na taśmie perforowanej. W maszynach tych nie było części mechanicznych, były natomiast przekaźniki elektromagnetyczne. Ostatni model maszyny Zusego, Z4 działał aż do końca lat pięćdziesiątych.
W 1944 roku IBM buduję pierwszy kalkulator elektromechaniczny. Programowanie kalkulatora polegało na odpowiednim łączeniu przewodami gniazd w tablicy sterującej. Dane wprowadzane były za pomocą dziurkowanych kart, wyniki wyprowadzano na taśmę perforowaną lub drukowano za pomocą elektrycznych maszyn do pisania. Ów kalkulator, o nazwie MARK I, liczył sobie 17 metrów długości i 3 metry wysokości, był więc całkiem spory. Do jego budowy użyto prawie 18000 lamp elektronowych. Obsługiwało go aż 10 osób. Kalkulator potrafił w ciągu 2 sekund dodać 7 liczb, a dzielenie zajmowało mu aż 11 sekund. Częstotliwość taktowania wynosiła 100 kHz. Mimo pozornie powolnego działania zastępował on pracę 100 rachmistrzów wyposażonych w klasyczne arytmometry.Obok mamy przykład MARK I
Wreszcie w 1942 naukowcy amerykańscy budują pierwsze urządzenie zasługujące na nazwę komputera. Jest to ENIAC (ang. Electronic Numerical Integrator And Computer), który został przedstawiony na obrazku obok. Jest to pierwsza maszyna w której użyto wyłącznie elementy elektroniczne (lampy elektronowe). Jest to pierwsza maszyna w której zastosowano wyłącznie elementy elektroniczne (lampy elektronowe). Mimo, że w 1976 roku okazało się, że wcześniej w Anglii powstały maszyny Colos I i Colos II, ENIAC-a uznaje się dzisiaj za pierwszy komputer. ENIAC-a programowało się ręcznie poprzez ustawianie przełączników i wymianę specjalnych tablic programowych. Jego długość wynosiła 15 metrów, a szerokość 9. Maluch ten ważył 30 ton i składał się z około 18000 lamp elektronowych. Ciekawostką był fakt, że liczby zapamiętywane były w układzie dziesiętnym, a nie dwójkowym jak to odbywa się dziś. ENIAC potrafił wykonać 5000 dodawań oraz od 50 do 360 dzieleń na sekundę. ENIAC był urządzeniem bardzo awaryjnym, a jego programowanie było bardzo uciążliwe.
W 1946 roku John von Neumann zaproponował architekturę, według której są budowane komputery do dnia dzisiejszego. Została ona nazwana architekturą von neumannowską. W pamięci komputera przechowywane miały być zarówno dane podlegające danych przetwarzaniu, jak i program, który te dane miał przetwarzać. Dzięki temu porzucono wreszcie programowanie sprzętowe (przełączanie kabli, czy zworek) i zastąpiono je programowaniem wewnętrznym, poprzez umieszczenie w pamięci maszyny programu sterującego przetwarzaniem danych. Architektura von neumannowska wyróżniała następujące elementy składowe: pamięć złożoną z elementów przyjmujących stany 0 i 1, arytmometr wykonujący działania arytmetyczno-logiczne oraz jednostkę sterującą. Wszystkim sterował program umieszczany w pamięci. Stanowiło to całkowity przełom w stosunku do wcześniejszych koncepcji, w których program był zapisywany na kartach perforowanych i bezpośrednio z nich odczytywany i uruchamiany. W maszynie von neumannowskiej program i dane znajdowały się w pamięci fizycznej, a program mógł modyfikować zawartość pamięci i samego siebie. Program był ciągiem instrukcji pobieranych i rozpoznawanych przez jednostkę sterującą w takt zegara. Praca maszyny oparta była na modelu maszyny Turinga, Neumann znał jej schemat teoretyczny. W 1949 roku w oparciu o tę architekturę powstaje komputer EDSEC
Pierwszą maszyną cyfrową, która była przeznaczona do zastosowań cywilnych był komputer UNIVAC. Program na nim uruchomiony przewidział zwycięstwo Eisenhowera w wyborach prezydenckich w 1952 roku.
Milowym krokiem w rozwoju komputerów było powstanie komputerów osobistych. Pierwszym komputerem osobistym był Altair wyprodukowany w 1975 roku przez firmę MITS. Altair posiadał 8-bitowy procesor Intel 8080 i 256 bajtów pamięci (tak, tak, bajtów), nie miał ani klawiatury, ani monitora, ani jakiegokolwiek napędu. Znany nam wszystkim Bill Gates napisał dla niego język BASIC (ang. Beginner's All Purpose Symbolic Instruction Code). Altair zyskał ogromną popularność i był prekursorem całej serii komputerów ośmiobitowych. Praktycznie wszystkie komputery ośmiobitowe działały pod kontrolą systemu operacyjnego nazywanego CP/M (ang. Control Program/Monitor lub Control Program for Microcomputer), wyprodukowanego przez firmę Digital Research. Jednak absolutnym przełomem w historii komputerów, którego konsekwencje widoczne są po dziś dzień było powstanie w 1980 roku komputera IMB PC (ang. Personal Computer), czyli popularnie mówiąc dzisiejszego peceta. Warto jednak pamiętać, że wcześniej, przed powstaniem IBM PC powstał inny komputer domowy. Był to Apple I, który był prekursorem tak dziś popularnych, choć głównie w USA jabłuszek. Komputery Apple, które zmieniły nazwę na Macintosh jako pierwsze posiadały interfejs graficzny. Miały też inną architekturę. Jakkolwiek pecety dominują dziś na światowym rynku komputerów, macintoshe przewyższają je niezawodnością pracy i wygodą obsługi.
Pierwszy komputer domowy - Altair 8800
Najważniejsze daty w historii komputerów:
- 1945 - powstaje komputer ENIAC
- 1947 - wynalezienie tranzystora
- 1958 - wynalezienie układu scalonego
- 1964 - powstaje superkomputer IBM S/360, zwany do dziś Mainframe
- 1964 - powstaje graficzny interfejs użytkowy i mysz
- 1971 - powstaje procesor INTEL 4004, zawierający 2.3 tys. tranzystorów, taktowany zegarem 740 kHz
- 1972 - powstaje procesor INTEL 8008 (3.5 tys. tranzystorów)
- 1974 - powstaje procesor INTEL 8080 (4.8 tys. tranzystorów)
- 1975 - powstaje komputer Altair 8800
- 1976 - powstaje procesor Zilog Z80
- 1976 - powstają procesory INTEL 8086 i 8088
- 1977 - powstaje komputer Apple II
- 1979 - powstaje procesor Motorola 68000
- 1981 - powstaje komputer IBM PC (procesor Intel 8088, 64 kB RAM)
- 1982 - powstaje procesor INTEL 80286 (134 tys. tranzystorów)
- 1983 - powstaje komputer PC XT (procesor INTEL 8086)
- 1984 - powstaje komputer PC AT (procesor INTEL 80286)
- 1985 - powstaje procesor INTEL 80386 (275 tys. tranzystorów)
- 1989 - powstaje procesor INTEL 80486 (1.18 mln tranzystorów)
- 1992 - powstaje procesor Power PC (2,8 mln tranzystorów), montowany w komputerach Macintosh
- 1993 - powstaje procesor INTEL Pentium (3.1 mln tranzystorów)
- 1995 - powstaje procesor INTEL Pentium Pro (5.5 mln tranzystorów)
- 1996 - powstaje procesor INTEL Pentium MMX
- 1997 - powstaje procesor INTEL Pentium II (7.5 mln tranzystorów)
- 1999 - powstaje procesor INTEL Pentium III (9.9 mln tranzystorów)
XIX wiek
W 1833 roku Charles Babbage, matematyk angielski, nazywany pionierem informatyki, projektuje pierwszą maszynę analityczną, działającą na zasadzie zbliżonej do zasady działania komputerów cyfrowych, nazwaną "maszyna różnicowa". Maszyna ta miała wykonywać podstawowe działania matematyczne, zapamiętywać dane wejściowe, pośrednie oraz wyniki obliczeń końcowych. Wprowadzanie i wyprowadzanie danych miało przebiegać na kartach dziurkowanych. Projekt nie został zrealizowany z powodu istniejącego wówczas niskiego poziomu techniki. W 1991 w Science Museum w Londynie wykonano wg oryginalnych planów fragment (arytmometr) maszyny różnicowej, udowadniając poprawność konstrukcji.
W 1854 roku George Boole opublikował uwagi na temat techniki cyfrowej (algebra Boole'a). Sto lat później stały się one podstawą działania komputerów.W 1857 roku Sir Charles Wheatstone wprowadził taśmę papierową w rolkach, która mogła służyć do zapisu i odczytu danych. W USA, według konstytucji, co 10 lat wykonywany ma być spis powszechny ludności. Ponieważ populacja kraju była coraz większa, spodziewano się, że ten spis planowany na rok 1890, nie zostanie skończony w ciągu dekady. Rząd Stanów Zjednoczonych postanowił znaleźć sposób na przyspieszenie całego procesu. Zorganizowano konkurs na urządzenie, które tego dokona. Wygrał go Herman Hollerith ze swoją maszyną tabulacyjną. Służyła ona do wprowadzania, sortowania i podliczania danych i wykorzystywała do tego celu perforowane karty (dziurkowane karty). Dzięki urządzeniu wyniki spisu udało się opracować w ciągu niecałych 3 lat. Hollerith dzięki swojemu wynalazkowi stał się sławny i bogaty, założył w roku 1896 firmę Tabulating Machine Company, która po połączeniu z kilkoma innymi stworzyła International Business Machines, czyli po prostu IBM..
Pierwsze stulecia naszej ery
przyrząd służacy do obliczeń pochodzi z ok. 80 wieku p.n.e. Przeznaczony był prawdopodobnie do obliczeń nawigacyjnych. W 967r. Gerbert Aurillac (papieź Sylwester II) skonstruował (abak) liczydło.Trzeba także odnotować, iż w 876r. p.n.e. odznaczono w Indiach pierwsze użycie symbolu "zero"
W 1614r. matematyk szkocki John Neper wynalazł logarytmy oraz zastosował pałeczki (od jego nazwiska nazwano pałeczkami Nepera), pozwalające na znaczne przyspieszenie żmudnych obliczeń.Wynalazek Nepera zapoczątkował rozwój urządzeń analogowych służących do liczenia. W 1622r matematycy angielscy E. Gunter i W. Oughtred wynaleźli suwak logarytmiczny.
Pierwszym znanym cyfrowym mechanicznym urządzeniem liczącym była czterodziałaniowa maszyna licząca, zaprojektowana przez niemieckiego astronoma i matematyka W. Schickharda.
W 1643r. Blaise Pascal franuski matematyk zbudował dwudziestodziałaniową maszynę do liczenia. Był to pierwszy
krok w kierunku automatyzacji urządzeń liczących.
W 1671 roku niemiecki matematyk Gotfried Wilhelm von Leibnitz zbudował
czterodziałaniowa maszynę do liczenia.
Epoka prehistoryczna
5000 lat p.n.e. w Egipcie i Babilonii powstały pierwsze liczydła w postaci glinianej tabliczki z przesuwanymi kamykami, które ułatwiało czynności liczenia. Tysiąc lat później Sumerowie zaczęli wykorzystywać je do zapisywania transakcji handlowych.
Udoskonaleniem tabliczki Sumerów był, wynaleziony w Babilonie, ok. 3000 lat przed naszą erą chiński abacus - drewniana tabliczka z kościanymi gałkami uwzględniająca rząd jedności i dziesiątek przypominająca dzisiejsze liczydło z prętami.
Liczydła miały wiele zróżnicowanych form. Najczęściej były to prostokątne deski z wyżłobionymi rowkami, w których ułożone kamyki oznaczają poszczególne pozycje przedstawianej liczby: w pierwszym rowku oznaczały one jedności, w drugim dziesiątki, w trzecim setki, w czwartym tysiące itd. Dodając i odejmując kamienie w rzędach wykonywało się operacje arytmetyczne.