Nasza strona używa cookies. Dowiedz się więcej o celu ich używania i zmianie ustawień w przeglądarce. Korzystając ze strony, wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki. Rozumiem

Nieśmiertelne technologie

Zuzanna Jakubanis Content manager / Bulldogjob.pl
O rozwiązaniach technologicznych sprzed lat, które mimo nowoczesnej konkurencji dziś są nadal używane.
Nieśmiertelne technologie

Fortran, C, architektura 32-bitowa, sieć 2G to niektóre z technologii, które - chociaż do najmłodszych nie należą - wciąż mają duże znaczenie i nie zostały do końca wyparte przez nowsze rozwiązania. Dlaczego tak się dzieje i jaki mamy z nich pożytek tuż przed początkiem lat dwudziestych XXI wieku?

2G

Choć sieć 2G ma już 27 lat, nadal jest rozwijana. Została wprowadzona do komercyjnego użytku w 1991 roku w Finlandii, przez sieć telefonii komórkowej znaną wówczas pod nazwą Radiolinija. Druga generacja technologii bezprzewodowej (bo 2G pochodzi od angielskiego 2nd Generation) wniosła wiele ulepszeń w stosunku do pierwszej, 1G.

Sygnały radiowe w sieci 2G nie były już analogowe, a cyfrowe. Transmitowane rozmowy telefoniczne zaczęły być szyfrowane, a większa liczba telefonów komórkowych mogła być obsługiwana na większym obszarze. Sieć 2G wiąże się też z technologią GSM (Global System for Mobile Communications). GSM i standard 2G zainicjowały cały pakiet nowych rozwiązań, które pozwoliły telefonom na więcej. Największą z nich były wiadomości tekstowe, ale też głosowe, a z czasem również podstawowe połączenie z Internetem - mglista przepowiednia tego, czym miały później stać się telefony - minikomputerami podłączonymi do sieci.

Pierwszy telefon komórkowy Ericsson z GSM: GH172 z 1992 r.


Jak ma się 2G w czasach, gdy śmiało mówimy już o 5G i związanymi z nią przekształceniami? Zapytaliśmy Joannę Chadaj, Product Owner w obszarze 2G/3G w Ericsson:

Spośród wszystkich dostępnych na świecie technologii mobilnych to ciągle 2G (GSM) ma największy zasięg terytorialny i dociera do prawie każdego zakątka globu. Wynika to z jej dojrzałości, dostępności na rynku, a także inwestycji, jakie przez lata czynili operatorzy sieci komórkowych w rozwój infrastruktury utrzymania sieci. W krajach rozwijających się technologia GSM dominuje właśnie pod względem zasięgu, a także ilości subskrypcji - czyli urządzeń w standardzie 2G obecnych na rynku. Są tam one najtańsze i najbardziej dostępne. Warto dodać, że w krajach tych sieci GSM nadal się rozwijają.

2G jest wszechobecna w wielu krajach, ale ze względu na ograniczenia traktuje się ją teraz często jak technologiczne dziedzictwo, o którym zapomnimy na dobre, zwłaszcza z rozwojem Internet of Things. Czy poleganie na 2G w tym zakresie można w ogóle sensownie uzasadnić? Owszem, jak potwierdza Joanna Chadaj:

Istotną cechą urządzeń 2G jest stosunkowo mały pobór mocy, co ma na ogromne zastosowanie dla rozwiązań Internet of Things (IoT). Mogą być z powodzeniem realizowane w oparciu o infrastrukturę 2G.

Gdy zastanowimy się nad kierunkiem rozwoju sieci 2G i urządzeń wchodzących w skład tej infrastruktury, możemy nakreślić cztery niezależne scenariusze:

Pierwszy z nich - Thin Layer - to koncepcja absolutnie bazowej, zawsze dostępnej sieci, realizującej podstawowe serwisy komunikacji mobilnej. Kolejny wiąże się z automatyzacją i uproszczoną obsługą z punktu widzenia operatorów sieci - tak, aby ponoszone po ich stronie nakłady na utrzymanie sieci były jak najmniejsze. Inny scenariusz związany jest z obniżaniem zużycia energii potrzebnej do działania urządzeń takich, jak kontrolery i nadajniki radiowe. I wreszcie ostatni dotyczy funkcjonalności umożliwiający realizację rozwiązań Internet of Things.

- opowiada Joanna Chadaj. Ale nie możemy zapomnieć o istnieniu nowszych technologii. Czy ich pojawienie się nie kłóci się mocno z 2G? Od specjalisty z Ericsson dowiadujemy się, że operatorzy telekomunikacyjni poszukują rozwiązań, które wspierają koegzystencję technologii 2G wraz z nowszymi technologiami:

Przykładem są rozwiązania z zakresu współdzielenia spektrum (spectrum sharing), a także nowe platformy sprzętowe, na których możliwa jest instalacja systemów dowolnej technologii.

Tym samym, rozwiązania te umożliwiają zwinne współdzielenie zasobów pomiędzy 2G, 3G lub 4G, a praca nad rozwojem każdej z tych technologii to pasjonujące wyzwanie dla inżyniera.

Fortran

Na początek skupmy się na najstarszym języku programowania wysokiego poziomu. Jego nazwa - Fortran - jest tak naprawdę skrótem od „tłumacza formuł” (and. Formula Translator). Za twórcę uznaje się pracownika IBM Johna Backusa, który wraz ze swoim nielicznym zespołem rozwijał język w latach 1954-1957 roku na komputer IBM 704. W tym czasie liczba komputerów gwałtownie rosła i zaczęło brakować odpowiednio przygotowanych programistów, mogących pisać programy. W zamyśle Fortran miał pozwalać na proste przenoszenie formuł z zapisu matematycznego do programistycznego.

The Fortran Automatic Coding System for the IBM 704 - instrukcja Fortrana z 1956 r.


Obawiano się, że jeśli będzie zbyt wolny w stosunku do assemblera, nikt nie będzie chciał z niego korzystać, stąd dołożono wszelkich starań przy jego optymalizacji. W rezultacie mamy do czynienia z wydajnością porównywalną do języka C. Przyczyn ciągłej popularności Fortrana można upatrywać też w szybkości obliczeń, znakomitej skalowalność i przenośności oprogramowania, a także dostępnych bibliotekach do programowania wieloprocesorowego i równoległego.

Najnowszym standardem tego języka jest Fortran 2008. To prawda, że Fortran już wiele lat temu został wyparty z głównego nurtu przez inne języki programowania. Jednak - ze względu na jego właściwości - nadal po ponad pięćdziesięciu latach jest językiem preferowanym do celów naukowych i obliczeń numerycznych na dużą skalę. Znajduje też wiele zastosowań inżynierskich. Często obliczenia aerodynamiczne, wytrzymałościowe i cieplne prowadzone są z jego użyciem.

Architektura 32-bitowa

Czyli taka architektura komputera, w której w 32 bitach pamięci mieszczą się słowa, adresy i inne dane. Pierwsze 32-bitowe systemy miał komputer mainframe IBM 360 z roku 1964 i VAX z roku 1977. Kilkanaście lat temu praktycznie wszystkie procesory używane w procesorach PC były 32-bitowe. Dzisiaj standardem jest 64-bit.

Mimo to, ze względu na wsteczną kompatybilność, popularne systemy operacyjne i aplikacje są bardzo często dostępne w dwóch wersjach - np. Windows, Linux czy przeglądarki internetowe. Jest też nadal wiele aplikacji, które dostępne są tylko w wersji 32-bit i w wielu przypadkach nie robi to różnicy dla użytkownika. Problem ten szczególnie dotyczy platformy Windows.

Architektura 32-bitowa pozostanie z nami jeszcze przez jakiś czas. ARM - jeden z czołowych producentów procesorów i mikrokontrolerów - nadal projektuje układy 32-bitowe. Są one używane w mikrokomputerach, w przemyśle czy w IoT, gdzie dłuższe słowo maszynowe nie zawsze jest potrzebne. Co więcej, dostępne są też układy 8-bitowe i 16-bitowe, które też znajdują nowe zastosowania.

Rozwój platform 32-bitowych nie zatrzymał się w miejscu, poszedł jednak w nieco inną stronę, niż rozwój procesorów 64-bitowych. Np. wiele nowych procesorów 32-bitowych to układy RISC (Reduced Instruction Set Computing), które mają prostsze rozkazy w stosunku do ich odpowiedników znanych z PC.

IBM System/360 - pierwszy system 32-bitowy

Zobacz więcej na Bulldogjob

Masz coś do powiedzenia?

Podziel się tym z 80 tysiącami naszych czytelników

Dowiedz się więcej
Rocket dog