Nauka

Co to jest gigabajt? »Jego definicja i znaczenie

Anonim

Jedna z jednostek pamięci komputera, odpowiadająca 1 000 000 000 bajtów, nazywana jest „gigabajtem”. Jego symbolem jest GB i często mylony jest z gibibajtem (GiB), który zgodnie z normami IEC 60027-2 i IEC 80000-13: 2008 ma wartość 230 bajtów, czyli 1073741824 bajtów; W wyniku tej błędnej interpretacji jest często postrzegane jako słowo nieco niejednoznaczne, chyba że zostanie mu przypisana określona liczba. Termin „giga” pochodzi od greckiego słowa „γίγας”, które oznacza „gigant”, odnosząc się do jego dużej pojemności magazynowej.

Bytes, jednostka informacji szeroko stosowana w telekomunikacji i informatyce, zrodziła się z potrzeby dodania znacznie większej ilości informacji do prototypów komputerów, które dominowały w drugiej połowie XX wieku. Słowo to zostało ukute w 1957 roku przez programistę Wernera Buchholza podczas pracy nad projektem IBM 7030 Stretch. Pierwotnie bajty mogły przechowywać od jednego do szesnastu bitów; ilość ta z czasem wzrosła do miliarda bitów (gigabajtów). Gdy to zostało ustalone, powstała seria przedrostków binarnych, których główną funkcją jest tworzenie innych binarnych wielokrotności.

Gigabyte Technology, firma z Tajwanu, która produkuje sprzęt i stała się znana ze swoich kart lub płyt głównych. Została założona w 1986 roku przez Pei-Cheng Yeh i obecnie jest spółką publiczną. Jej produkty obejmują między innymi telefony, monitory, klawiatury, myszy, zasilacze, ultrabooki, osobiste asystenty cyfrowe, sprzęt sieciowy.