Termin obliczenie pochodzi z łaciny, zgodnie z RAE „computatĭo”, ale inne źródła formułują, że pochodzi od łacińskiego głosu „computare” utworzonego przez przedrostek „com” równy „con” i „putare”, co oznacza „obliczać” oceniać ”. Definicja computing jest nauka, która zajmuje się badaniem komputerów, obejmująca ich konstrukcji, eksploatacji i wykorzystania w danych przetwarzania. Innymi słowy, informatyka odnosi się do badania naukowego opartego na automatycznych systemach zarządzania informacją, które można przeprowadzić za pomocą zaprojektowanych do tego narzędzi.
Informatyka łączy w sobie pewne elementy teoretyczne i praktyczne z zakresu inżynierii, matematyki, logiki, teorii informacji itp.
Co to jest informatyka
Spis treści
Informatyka to nauka lub automatyczne przetwarzanie informacji, które może składać się z zestawu symboli, liczb lub słów, które ogólnie nazywa się wyrażeniem alfanumerycznym.
Ponadto można powiedzieć, że informatyka jest technologią umożliwiającą badanie przetwarzania informacji za pomocą automatycznych maszyn komputerowych, dlatego jest konceptualizowana jako nauka badająca działanie komputerów, a także ich projektowanie i wykorzystanie w zarządzanie informacją.
Historia informatyki
Ma historię nie dłuższą niż wiek, chociaż źródła podają, że jego początki sięgają czasów, gdy zaczęto tworzyć maszyny lub urządzenia kierowane do różnych zadań obliczeniowych; W 1623 r. Pierwszy kalkulator mechaniczny został wynaleziony przez słynnego niemieckiego matematyka Wilhelma Schickarda.
Dopiero w latach czterdziestych XX wieku zaczęły pojawiać się pewne artefakty, które umożliwiają przeprowadzenie wielu procesów, to znaczy nie ograniczały się do obliczeń matematycznych; w latach 80-tych pojawiły się komputery osobiste lub pecety; i to w XX wieku rozwój komputerów przeżywał większy rozkwit i rozwijał się do dziś.
Charles Babbage (1791-1871) był brytyjskim matematykiem i informatykiem. Zaprojektował i częściowo wdrożył maszynę parową o różnicach mechanicznych do obliczania tabel numerycznych. Zaprojektował również, ale nigdy nie zbudował, silnik analityczny do uruchamiania tabel lub programów komputerowych. Według tych wynalazków jest uważany za jednego z pierwszych ludzi, którzy wpadli na pomysł tego, co jest obecnie znane jako komputer, dlatego jest postrzegany jako ojciec komputerów. Części niedokończonych mechanizmów są wystawione w London Science Museum. Część jego mózgu zakonserwowana w formalinie jest wystawiona w „The Royal College of Surgeons of England” w Londynie.
Maszyny pierwszej generacji charakteryzowały się rozmiarem, ponieważ zajmowały całe pomieszczenie, dodatkowo ich programowanie odbyło się za pomocą języka maszyn zaprojektowanych z pustych rur i były bardzo drogie.
Druga generacja pojawiła się w latach sześćdziesiątych XX wieku, maszyny te były w stanie przetwarzać więcej danych i były mniejsze, a informacje wprowadzane były za pomocą kart perforowanych.
Maszyny trzeciej generacji charakteryzowały się wykorzystaniem takich systemów operacyjnych jak IBM, dodatkowo zastosowano układy scalone, a następnie zintegrowano minikomputery.
A czwarta generacja charakteryzowała się pojawieniem się mikroczipów, coś, co miało ogromne znaczenie w komputerach, stopniowo zmniejszało swój rozmiar i przyspieszało, a także było tańsze.
Elementy informatyki
Informatyka i informatyka to terminy równoważne, obie dyscypliny są odpowiedzialne za automatyczne badanie i przetwarzanie informacji oraz pozwalają na przechowywanie, przetwarzanie i manipulowanie dużą ilością informacji w coraz mniejszych urządzeniach. Składa się z dwóch zasadniczych elementów, którymi są Sprzęt i Oprogramowanie.
Rozwój oprogramowania
Jest to logiczna część komputera i obejmuje programy użytkowe, systemy operacyjne, narzędzia i wszystko, co umożliwia maszynie zadowalającą reakcję na potrzeby użytkownika. Oprogramowanie jest zwykle podzielone na dwa duże bloki, jeden podstawowy i drugi. Najbardziej znanym podstawowym elementem jest system operacyjny, ale jego częścią są również translatory, narzędzia lub programy narzędziowe i asembler.
W oprogramowaniu aplikacyjnym znajduje się część poświęcona logicznej organizacji danych. Aby komputer mógł wykonywać swoje funkcje, musi być dostarczony z programem lub zestawem instrukcji, które są zrozumiałe dla tej maszyny. Komunikacja odbywa się za pomocą różnych języków programowania, z których najczęściej używane są języki wysokiego poziomu, które są najbardziej syntetyczne, najłatwiejsze w użyciu lub najbardziej podobne do języka naturalnego.
Do wytworzenia oprogramowania wymagana jest interwencja kilku osób, np.klienta, który np. Ma problemy w swojej firmie i wymaga rozwiązania, w takiej sytuacji proszony jest o pomoc analityk systemowy, który odpowiada za przesłanie go do wszystkich wymagań i potrzeb klienta, na końcu interweniują programiści, którzy są odpowiedzialni za kodowanie i projektowanie systemu, a następnie testowanie i instalowanie go w firmie.
Fazy procesu tworzenia oprogramowania to:
1. Analiza wymagań: aby stworzyć oprogramowanie, pierwszym krokiem jest wyodrębnienie wymagań produktu, w tym celu konieczne jest posiadanie umiejętności i doświadczenia w zakresie inżynierii oprogramowania lub technika komputerowego, aby rozpoznać niejednoznaczne, niepełne lub sprzeczne wymagania.
Dokument Specyfikacji Wymagań Systemowych (ERS) to miejsce, w którym znajduje odzwierciedlenie wynik analizy wymagań klienta, którego strukturę definiuje kilka norm takich jak CMM-I W ten sam sposób definiowany jest diagram Podmiotu Relacja, w której odzwierciedlone są główne podmioty uczestniczące w tworzeniu oprogramowania.
2. Projekt i architektura: ogólność operacji należy określić bez podawania szczegółów. Odbywa się to poprzez włączenie wdrożeń technologicznych, takich jak między innymi sieć, sprzęt.
3. Programowanie: ten etap jest najdłuższy pod względem czasu trwania i złożoności, a także jest ściśle powiązany z używanymi językami programowania. Ta faza jest opracowywana przez inżyniera komputerowego.
4. Testowanie: ta faza polega na sprawdzeniu, czy opracowane oprogramowanie wykonuje poprawnie wszystkie określone zadania. Jest to technika, która odpowiada za przeprowadzenie testów osobno każdego z modułów oprogramowania, a następnie dokonanie weryfikacji w sposób kompleksowy dla osiągnięcia celu. Szacuje się, że aby dobra faza testowa przebiegła prawidłowo, musi być przeprowadzona przez innego programistę niż programista, który ją zaprogramował.
5. Dokumentacja: Odnosi się do wszystkiego, co dotyczy dokumentacji generowanej podczas tworzenia oprogramowania i zarządzania projektem. Od modelowania (UML), testów, diagramów, instrukcji technicznych, instrukcji użytkownika itp. Wszystko to w celu ewentualnej użyteczności, przyszłej konserwacji, poprawek i rozszerzeń systemu.
6. Konserwacja: W ramach tego procesu oprogramowanie jest utrzymywane i ulepszane w celu zatrzymania wykrytych błędów i nowych wymagań. Szacuje się, że około 3/4 inżynierów komputerowych zajmuje się konserwacją, a bardzo mała część tych prac jest poświęcona poprawianiu błędów.
Sprzęt komputerowy
Jest to zbiór elementów fizycznych (maszyn i obwodów), których trudno modyfikować w przeciwieństwie do oprogramowania, które można modyfikować w celu wykonania każdego zadania.
Sprzęt komputera składa się z różnych elementów. Najważniejsze to:
- Rdzeń komputera: składa się z procesora i pamięci. CPU jest centralną jednostką przetwarzania danych, która obejmuje jednostkę sterującą i arytmetyczno-logiczną.
- Jednostka sterująca: Odpowiada za funkcję centralnego zarządzania. Wykonuje interpretację instrukcji programu. Jest odpowiedzialny za wskazywanie działań, które należy wykonać w każdym przypadku i przydziela zadania różnym częściom grupy.
- Jednostka arytmetyczno-logiczna: Jest to miejsce, w którym przeprowadzane są wszystkie procesy z wykorzystaniem wskazań jednostki sterującej. Wykonuje operacje na relacjach matematycznych lub logicznych na dostarczonych danych.
- Pamięć: jest to miejsce, w którym wszystkie dane i programy są przechowywane, zapisywane i udostępniane jednostce centralnej (CPU).
Jeśli chodzi o pamięć, składa się ona z milionów małych obwodów, które zapamiętują tylko dwa fizyczne typy informacji, jeśli prąd przepływa lub nie. Każdy impuls elektryczny oznacza zapamiętanie cyfry 1, a przerwanie prądu determinuje zapamiętanie zera „0”. Całe kodowanie działa w systemie binarnym, co można zilustrować w zależności od fizycznego urządzenia wziętego jako model, na różne sposoby otwarte / zamknięte, podłączone / odłączone, 1/0. System dwójkowy różni się od tego, który jest zwykle używany, czyli dziesiętny lub dziesiętny.
Istnieją dwa rodzaje pamięci: ROM i RAM. Pamięć ROM, której akronim odpowiada angielskiemu wyrażeniu Read Only Memory, co oznacza pamięć tylko do odczytu. Nie można go zmienić, jest fizycznie wstępnie ustawiony przez producenta, zawiera niezbędne programy (zawarte w wyrażeniu systemu operacyjnego), dzięki czemu maszyna wie, jak obsługiwać wprowadzane programy i dane oraz może odnosić się do języków wysoki poziom znajomości języka maszynowego. Pamięć RAM, jej angielski akronim Pamięć o dostępie swobodnym, czyli pamięć o dostępie swobodnym, jest tym, czego użytkownik może swobodnie używać.
- Urządzenia peryferyjne: są to elementy, które są częścią systemu fizycznego i spełniają dodatkowe, ale niezbędne funkcje.
Zarządzanie informacją
Wewnętrzna struktura komputera pełni funkcję przetwarzania i przechowywania informacji. Urządzenia peryferyjne, które są połączone, zapewniają dwa dodatkowe etapy, które poprzedzają i następują po etapie centralnym. Informacje wejściowe i wyjściowe są wytwarzane przez urządzenia peryferyjne, dlatego są również znane pod nazwą urządzeń wejściowych i wyjściowych lub we / wy.
Badanie informatyki
Nauki te wpisują się praktycznie we wszystkie czynności życia codziennego, dlatego bardzo ważne jest, aby ludzie nauczyli się posługiwać tym narzędziem, aby wykorzystać jego zalety, zwiększyć produktywność i efektywność w wykonywanych zadaniach. Dla młodych ludzi komunikowanie się przez e-mail, korzystanie z komputera, praca, przeglądanie lub wyrażanie pomysłów w Internecie powinno być równie naturalne jak czytanie i pisanie.
Obecnie studiowanie tego typu kariery pozwala rozwijać się w różnych obszarach rozwijającej się branży. Zawód ten stał się jednym z najbardziej wymagających na obecnym rynku pracy i jest to ogromna zaleta firmy, która zapewnia lepsze możliwości zatrudnienia.
Kolejną zaletą twojego badania jest liczba opcji, które obejmuje. Na przykład, jeśli planujesz zostać profesjonalistą w dziedzinie informatyki, możesz zostać technikiem lub inżynierem. W obu przypadkach będą zarabiać dobre pensje, różnica polega na rodzaju funkcji i zadań, jakie muszą spełniać.
Wiele osób uważa, że informatyka ma związek tylko z takimi rzeczami, jak programy pomocy technicznej lub prowadzenie firmy; Ale prawda jest taka, że dzisiaj wiele firm, jeśli nie wszystkie, korzysta z różnych narzędzi informacyjnych, na przykład poczty elektronicznej, systemów księgowych, a także musi tworzyć własne strony internetowe, aby móc sprzedawać swoje produkty.
Inżynieria komputerowa
Inżynieria komputerowa to jedna z karier o największych możliwościach zatrudnienia na świecie, wynika to z potrzeb firm w obecnej erze cyfrowej.
Kariera ta jest wysoko ceniona na poziomie pracy ze względu na jej wkład w rozwój społeczeństwa i zdolność do rozwiązywania problemów, nabytą przez tych specjalistów w sektorze, do którego należą.
Absolwenci szkół informatycznych i absolwenci kierunków inżynierskich mają możliwość natychmiastowego wejścia na rynek pracy w różnych firmach. Pole działania dla tych specjalistów jest bardzo szerokie i mogą być zatrudnieni w ekonomii, zdrowiu, komunikacji, edukacji i innych zawodach, które wymagają technologii komputerowej do ich wykonywania.
Kursy komputerowe
Głównym celem kursów jest sprawienie, aby użytkownik lub student przestał się bać komputerów i nauczył się od podstaw radzić sobie z nim w naturalny sposób. Ogólnie rzecz biorąc, najważniejsze aspekty podczas studiowania informatyki to pakiety oprogramowania, z których można korzystać, system operacyjny, sposób poruszania się po wiarygodnych witrynach, nauczenie się otwierania nowego konta e-mail, zarządzania sieciami społecznościowymi, m.in. być tak.
Przetwarzanie w chmurze to technologia, która ułatwia i umożliwia przechowywanie informacji i plików w Internecie, bez ryzyka braku wystarczającej pojemności pamięci komputera lub urządzeń mobilnych.
Komputery dla dzieci
Jest częścią naszego życia, a jej uczenie się może promować rozwój pewnych umiejętności związanych z uwagą, pamięcią lub koordynacją u dzieci. Jego użycie będzie zależało od nadzoru przeszkolonej osoby dorosłej. Należy rozumieć, że komputer dziecięcy powinien zawsze być prowadzony przez przeszkolonego dorosłego, aby wyjaśnić jego użyteczność.
Dzięki kursowi komputerowemu dziecko nauczy się poprawnie korzystać z internetu w celu prowadzenia badań, nauczy się tworzyć i drukować monograficzne dokumenty w programie Word, tworzyć prezentacje PowerPoint na wystawy w szkole i na uczelni, a także prezentować za pomocą prezentacji.