Cyfra binarna pochodzi z języka angielskiego i oznacza cyfrę binarną, Bit to skrót lub akronim tego angielskiego terminu. Cyfra binarna to wyrażenie liczbowe, które może przyjmować tylko jedną z następujących dwóch wartości: zero lub jedną, dlatego bit jest również nazywany binarnym systemem liczbowym.
Bitów jest najmniejszą jednostką pomiaru cyfrowego (gdyż może on przyjąć tylko dwie wartości), z informacji, które mogą być stosowane w dziedzinie liczące, albo w komputerze lub urządzeniu cyfrowym. Za pomocą Bit możesz przedstawić wybór między dwiema różnymi alternatywami, które mają ten sam stopień możliwości wyboru, na przykład czarny lub biały, włączony lub wyłączony, tak lub nie, otwarty lub zamknięty, prawda lub fałsz, mężczyzna lub kobieta itp.. I tak każda z tych dwóch opcji ma przypisaną wartość, jedno zero i drugie.
Wszystkie informacje zakodowane w komputerze są mierzone w bitach, można powiedzieć, że jest to sposób, w jaki komputery działają lub „rozumieją” (poprzez kod binarny), wszystkie informacje, które są w nich przechowywane, takie jak informacje w języku użytkownika jest konwertowany na bity, a także znajomość rozmiaru plików odbywa się za pomocą bitów. Połączenie kilku bitów ze sobą prowadzi do powstania innych cyfrowych jednostek miary, takich jak bajt, który jest zestawem 8 bitów, kilobajt, który z kolei składa się z 1024 bajtów, a następnie megabajt, który składa się z 1024 kb, Gigabajt ma 1024 Mb i wreszcie terabajt z 1024 Gb, chociaż rosnąca sukcesja nadal rozpoznaje między innymi Yotabajty i Xentabajty jako największe.
W naszym codziennym języku używamy go w odniesieniu do pojemności pamięci komputerów, telefonów komórkowych, odtwarzaczy MP3 itp. Lub ilość miejsca, które może zajmować dowolny typ pliku, takiego jak obrazy, muzyka, wideo i pliki tekstowe na tych urządzeniach cyfrowych, ale teraz wiemy, że są to systemy, które mają tylko kombinację dwóch liczb (zero lub jeden).