Conceptos básicos

La Informática se define como:
  1. Ciencia que estudia el tratamiento lógico, racional y automático de la información.
  2. Ciencia que estudia la recogida, organización, transformación y transmisión de la información de una forma lógica y racional, empleando medios humanos, mecánicos y electrónicos.
  3. Ciencia o tecnología que estudia el tratamiento automático de la información con ordenadores, con flexibilidad y rápidez.
  4. Ciencia aplicada que abarca el estudio y aplicación del tratamiento automático de la información, utilizando dispositivos electrónicos y sistemas comunicacionales.
  5. Conjunto de conocimientos científicos y técnicas que hacen posible el tratamiento automático de la información por medio de ordenadores (RAE).
En la informática convergen los fundamentos de las ciencias de la computación, la programación y metodologías para el desarrollo de software, la arquitectura de computadores, las redes de computadores, la inteligencia artificial y ciertas cuestiones relacionadas con la electrónica.
El tratamiento automático de la información, también llamado procesamiento de datos, es automático y racional ya que se realiza mediante órdenes establecidas y razonamiento humano. Tiene lugar según los siguientes pasos:
Un programa es un tipo de archivo que contiene un conjunto de instrucciones que indican al ordenador que acciones hay que realizar sobre los datos introducidos, para obtener los resultados que el usuario desea. Al conjunto de uno o varios programas que realizan un determinado trabajo completo se le denomina aplicación informática.

Para que un ordenador pueda resolver cualquier problema, es necesario indicarle previamente qué pasos debe seguir. Estos pasos deben suministrarse en forma de un conjunto de instrucciones sencillas que, seguidas en el orden correcto, hacen que el ordenador llegue a la solución del problema. Este conjunto de pasos o instrucciones sencillas se denomina algoritmo. Una vez que el algoritmo ha sido diseñado, es necesario traducirlo a lenguaje de programación que resulte comprensible para el ordenador. El resultado de esa traducción recibe el nombre de programa

Para evitar que la realización de programas fuera tan complicada se idearon lenguajes de programación, formados por conjuntos de instrucciones llamadas sentencias cercanas las lenguaje humano y más fáciles de utilizar. Y para traducir los lenguajes de programación a lenguaje binario se utilizan los compiladores e intérpretes. Los primeros traducen programas enteros, mientras que los segundos realizan traducciones inmediatas por líneas de sentencias.

Un ordenador (computadora) se define como:
  1. Máquina compuesta por elementos físicos de tipo electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión, siempre que reciba las instrucciones adecuadas. Es un sistema que bajo el control de un programa almacenado acepta datos de entrada, los procesa y produce unos resultados.
  2. Máquina que acepta unos datos de entrada, efectúa con ellos operaciones lógicas y matemáticas, y proporciona la información resultante a través de un medio de salida, bajo el control de un programa de instrucciones previamente almacenado.
  3. Máquina que repite constantemente el siguiente proceso: recibe unos datos de entrada; recibe un programa que indica qué hacer con los datos; efectúa con los datos las operaciones indicadas en el programa; produce unos datos de salida, que son el resultado de realizar las operaciones indicadas en el programa.
  4. Máquina diseñada para realizar cálculos sencillo a partir de los cuales se hacen otros mucho más complejos. Partiendo de una serie de datos de entrada, se realizan un serie de procesos para proporcionarnos unos resultados de salida.
  5. Máquina que partiendo de unos datos de entrada, y por medio de un programa, presenta unos resultados de salida. Además, puede almacenar, procesar y recuperar información

Cualquiera de estas deficiones encaja con la idea que tenemos de un ordenador: una máquina con una serie de programas ya incluidos, que nos permite hacer un tratamiento de la información, como puede ser mostrar una foto, mostrar un texto, ejecutar un juegos, realizar una cálculo matemático… 

Un sistema informático es el conjunto formado por uno o varios ordenadores (computadoras) y sus periféricos, que ejecutan aplicaciones informáticas, y que son controlados por personal especializado.

Se entiende por periférico a todo dispositivo conectado a la CPU (Unidad Central de Proceso; parte del ordenador que se encarga de controlar, supervisar y realizar todas las acciones) que manda, recibe o almacena información (teclado, ratón, monitor, impresora, pendrive, etc.).

En resumen, para que el ordenador realice determinados procesos u operaciones necesita:
  • una serie de dispositivos físicos correctamente conectados,
  • un conjunto de datos para ser procesados y
  • una serie de instrucciones que indiquen cómo deben realizarse esos procesos.
Por ello, en los sistemas informáticos existen dos componentes claramente diferenciados que son:

El hardware (HW) es la parte física de un ordenador. Es el conjunto de dispositivos o componentes físicos que componen el sistema informático, ya sean eléctricos, electrónicos, mecánicos o magnéticos (componentes tangibles): carcasa, circuitos electrónicos internos, monitor, teclado, ratón, impresora, escáner, micrófono, altavoces, módem, webcam, torre, etc.

El software (SW) es la parte lógica de un ordenador. Es el conjunto de datos e instrucciones necesarios para que el ordenador funcione, es decir, el conjunto de programas (componentes intangibles) que nos permiten controlar el funcionamiento del ordenador (sistema operativo) y realizar todo tipo de tareas como por ejemplo escribir una carta (Microsoft WORD), dibujar los planos de una casa (PAINT en Windows, CAD), llevar la gestión económica de una empresa (Microsoft EXCEL) o la agenda de los trabajadores (Microsoft ACCESS).

Ambas partes son imprescindibes para que un ordenador funcione. El ordenador (HW) por si solo no sirve para nada; es necesario suministrarle información e instrucciones (SW). De nada sirve un ordenador sin el SW para manejarlo, ni un programa sin el HW donde ejecutarlo.


Hardware y software evolucionan rápidamente y de forma paralela. La evolución del HW está orientada a conseguir máquinas cada vez más pequeñas, rápidas y baratas, capaces de procesar y almacenar gran cantidad de información. Por otro lado, la evolución del SW está orientada al diseño de nuevos programas que aprovechen el HW existente.

Codificación de la información

La información que maneja el ser humano se representa mediante letras y números, con los que formamos palabras y cantidades. Para las palabras utilizamos el alfabeto del idioma correspondiente y para los números el sistema numérico decimal que va de 0 a 9.

Los ordenadores son capaces de procesar información de cualquier tipo (números, textos, gráficos, etc.) pero en su interior todo se reduce a cálculos numéricos simples. En los ordenadores la información se codifica mediante un sistema denominado código binario o código máquina, basado en señales digitales. Una señal digital es una señal representada sólo por dos valores, 0 y 1, lo que responde a la idea física de que por un circuito pase o no pase un impulso eléctrico.

Pero cuando suministramos datos al ordenador no lo hacemos en formato digital y cuando el ordenador nos muestra los resultados tampoco lo hace de esa forma. Cuando damos datos al ordenador, lo hacemos usando símbolos conocidos; estos símbolos se transforman en ceros y unos; una vez transformados son procesados por el ordenador; finalmente, el resultado, formado también por ceros y unos es transformado por el ordenador en forma de símbolos que comprendemos.

Un ordenador solamente es capaz de representar dos estados: encendido (presencia de corriente) y apagado (ausencia de corriente). El estado encendido se representa mediante un 1 y el apagado mediante un 0. Es por esto que todos los ordenadores del mundo, tanto para representar cantidades como palabras, utilizan un sistema basado en ceros y unos llamado sistema binario porque sólo admiten dos posibilidades: apagado/cerrado/falso = 0 y encendido/abierto/verdadero = 1. Por ello, la unidad básica en Informática es el BIT (BInary digiT). Un bit es la unidad de información más pequeña manipulada por el ordenador y que podemos representar con el sistema binario, es decir, un 1 ó un 0.  Está representada físicamente por un único pulso enviado a través de un circuito, o bien por un pequeño punto en un disco magnético capaz de almacenar un 0 ó un 1.

 

Representación de cantidades

El ser humano representa las cantidades en el sistema numérico decimal o arábigo, también llamado de base 10, que utiliza diez símbolos o dígitos: 0, 1, 2, 3, 4, 5, 6, 7, 8 y 9. Por el contrario, el ordenador utiliza el sistema binario o base 2 que sólo utiliza dos dígitos, 0 y 1 (bits).
Para pasar del sistema decimal al binario, dividimos sucesivamente entre dos y se procede como en los siguientes ejemplos:
Para pasar del sistema binario al decimal se establecen potencias de base 2 como en los siguientes ejemplos:

Representación de palabras

Un texto está formado por párrafos, que están formados por palabras, que están formadas por letras, que pueden ser mayúsculas o minúsculas, con signos de puntuación, con espacios en blanco, tildes, etc. Para representar todos estos símbolos en el ordenador mediante ceros y unos se utiliza una codificación llamada código ASCII (American Standard Code for Information Interchange creado en 1963 por un comité Industria-Gobierno). Este código asigna a cada carácter (comas, puntos, etc.) una combinación de ocho ceros y unos. De esta forma, cuando el usuario teclea una letra en el ordenador, ésta se transforma al sistema binario según el código ASCII y viceversa.

Si el ordenador utiliza el sistema binario, solamente podemos representar dos estados diferentes (1 y 0). Si los combinamos en parejas, representaremos cuatro estados (11, 10, 01, 00). Con tres dígitos representaremos ocho estados (111, 110, 101, 011, 100, 001, 010, 000), con cuatro dígitos 16 estados, con 5 dígitos 32 estados, y así sucesivamente. Por lo tanto, necesitamos por lo menos ocho dígitos para poder representar todos y cada uno de los símbolos de nuestra escritura, ya que nos proporcionan 256 estados. La agrupación de 8 bits se denomina byte. En general, el número de estados se puede calcular como 2^nº bits.

Como cada carácter es un byte, habrá que asignarle una combinación de 8 ceros y unos que lo represente. Esto lo hace el código ASCII que traduce nuestros todos los caracteres internacionales (letras, dígitos...) y algunos propios de cada país a lenguaje máquina. En este sistema a cada carácter se le asigna un número entre 0 y 255, que en el lenguaje binario está representado por un byte. De esta manera, por ejemplo, en el caso de los números no será necesario dividir entre 2 cada vez que queramos traducirlo al lenguaje máquina. Este código permitió que máquinas de todo tipo y marca pudiesen intercambiar datos ya que los caracteres de todos los ordenadores del mundo están representados de acuerdo con el código ASCII.

En resumen, en Informática, cada letra, número o signo de puntuación, es decir, cada caracter ocupa un byte (8 bits) y con un conjunto de bytes se puede representar cualquier información de manera que el ordenador lo entienda. Por ejemplo, cuando se dice que un archivo de texto ocupa 5.000 bytes estamos afirmando que éste equivale a 5.000 caracteres.

Tabla Código ASCII número DEC-símbolo
Conversor binario/decimal/hexadecimal


Para grandes cantidades de información como las que se manejan actualmente, el byte es una unidad de información demasiado pequeña, por lo que se utilizan múltiplos del byte como son: kilobyte (KB), megabyte (MB), gigabyte (GB) y terabyte (TB).

Unidades de cantidad de información
 
Para pasar de una unidad de información a otra sólo hay que seguir el siguiente esquema:

de bits a TB

de TB a bits (idea de Virginia)



Tipos de ordenadores

Cada tipo de ordenador tiene un propósito y unas características. Las opciones se han ido diversificando en función del tamaño, potencia, datos procesados, capacidad de procesamiento y necesidades específicas.

Según el tamaño




  • SOBREMESA. Está diseñado para ser colocado de forma permanente en un escritorio. Consta de la unidad central y los periféricos. Su uso está muy extendido.
  • PORTÁTIL. Tienen un tamaño reducido, gran movilidad y alta potencia lo que les han hecho muy populares. Su principal inconveniente es la autonomía de sus baterías y el elevado precio en comparación con los de sobremesa.
  • PDA (Personal Digital Assistant). Equipo de bolsillo o agenda electrónica con múltiples funciones (agenda, reloj, libreta de direcciones, calculadora, tareas...), de tamaño reducido y fácil manejo con un puntero.
  • TABLET PC. Es un híbrido con multitud de ventajas: se puede escribir en su pantalla con un lápiz especial que reconoce tu escritura, en algunos modelos, es posible separar la pantalla del teclado lo que le hace más versátil.

Según el tipo de datos



  • DIGITALES. Dispositivos de cálculo que procesan datos concretos. Representan los valores que han sido convertidos a dígitos binarios, es decir, 0 y 1 (sistema binario), y trabajan contando números (dígitos) que representa cifras y letras y otros símbolos especiales. Son las más utilizadas a nivel comercial, científico y educativo.
  • ANALÓGICOS. Representan los valores cambiantes de una variable que está medida en una escala y cuyas respuestas son registradas continuamente con un determinado grado de precisión para su visualización o para su conversión en otra forma deseada. Son dispositivos electrónicos o hidráulicos, diseñados para manipular la entrada de datos en forma de valores, señales o magnitudes físicas (niveles de tensión o presión hidráulica, por ejemplo). Se utilizan generalmente para supervisar condiciones de viento, temperatura, sonido, movimiento, etc.
Comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.


En un ordenador digital también pueden introducirse datos en forma analógica mediante un convertidor analógico-digital, y viceversa.

  • HÍDRIDOS. Es un sistema construido con una computadora digital y una analógica, conectados a través de una interfaz que permite el intercambio de información entre las dos computadoras y el desarrollo de su trabajo en conjunto. Las características deseables de ambas máquinas son combinadas para crear este tipo de sistemas de cómputo. Fueron creadas para complementar la flexibilidad de las digitales con la velocidad de las analógicas. Se utilizan para actividades en los que hay que resolver grandes cantidades de ecuaciones complejas, como en el control de procesos y robótica.
Computadoras analógicas e híbridas http://www.technikum29.de/en/computer/analog

Según la capacidad de procesamiento

MICROCOMPUTADORAS. Son las computadoras más pequeñas, menos costosas y más populares en el mercado. Contienen como procesador un solo chip. Hay dos tipos:

Ordenador Personal ó PC. Son computadoras para uso personal, fáciles de usar y con grandes prestaciones. Son relativamente baratas y se encuentran en oficinas, escuelas y hogares. Tienen un solo puesto de trabajo. Pueden ser de escritorio (desktop), formadas como mínimo por una caja (el ordenador), una pantalla, un teclado y un ratón; o portátiles (laptop) que incluyen “ordenador”, pantalla, teclado e incluso ratón en una sola pieza.
Estación de Trabajo (Workstation). Se trata de un PC conectado a través de una red a una computadora mayor. Son computadoras que se utilizan para publicidad, creación de software, tareas de CAD (Computer Aided Design), tratamiento de imágenes y otras aplicaciones que requieran un poder de procesamiento moderado y capacidades de gráficos de alta calidad.



MINICOMPUTADORAS. Son sistemas multiproceso (varios procesos en paralelo), capaces de soportar de 10 a 200 usuarios simultáneamente (servidores). Fueron diseñadas para tareas específicas como la comunicación de datos, procesamiento de palabras y aplicaciones multiusuario (control del tráfico aéreo y automatización de fábricas) por lo que no necesita todos los periféricos que necesita un Mainframe, lo que ayudó a reducir el precio y coste de mantenimiento. En tamaño y poder de procesamiento se encuentra entre las Mainframes y las Workstation. Se usan para almacenar grandes bases de datos, automatización industrial y aplicaciones multiusuario. Han ido desapareciendo del mercado.




IBM 2094 System z9
MAINFRAMES o MACROCOMPUTADORAS. Son grandes, rápidos y caros sistemas informáticos, capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida, y de realizar millones de operaciones por segundo. Son utilizadas por grandes corporaciones, universidades, hospitales, etc., y sirven para atender a miles de usuarios.

En el pasado ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, es parecido a una hilera de archivos en algún cuarto con piso falso, para ocultar los cientos de cables de los periféricos, y su temperatura tiene que estar controlada.



IBM System/360 (1965)
http://www.channelbiz.es/2014/04/10/50-anos-con-ibm-mainframe/
IBM 3590 (1995)
Son más poderosos que las Supercomputadoras porque soportan más programas simultáneamente, pero las Supercomputadoras pueden ejecutar un solo programa más rápido que un Mainframe.

SUPERCOMPUTADORAS. Son las computadoras más potentes y más rápidas que existen. Tienen muchos microprocesadores que trabajan en paralelo y pueden realizar billones de operaciones por segundo, lo que tomaría semanas o meses en un PC. Cuenta con un control de temperatura especial, para disipar el calor que algunos componentes alcanzan a tener. Son las más caras por lo que su comercialización es mínima. Son muy pocas las supercomputadoras que se construyen en un año.


Están diseñadas para procesar enormes cantidades de información en poco tiempo y están dedicadas a una tarea específica. Son utilizadas por organismos gubernamentales, industrias petroleras y organismos de investigación científica para tareas tales como búsqueda y estudio de la energía y armas nucleares, búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos, estudio y predicción del clima en cualquier parte del mundo, elaboración de maquetas y proyectos para la creación de aviones, simuladores de vuelo, etc.
 El superordenador MareNostrum 4 será 12 veces más potente que su anterior versión



Otros ordenadores


NETWORK COMPUTER (NC, computadora de red). Se trata de un ordenador con mínima memoria, sin disco duro y con un procesador de gama baja, diseñado para conectarse a una red, como Internet. Responde a un nuevo concepto: el uso de aplicaciones en línea mediante el lenguaje Java. Esto reduce costes y facilita la administración de los terminales desde un servidor central.




MACINTOSH. Microcomputadoras construidas por la compañía Apple desde 1984, y constituidos desde entonces como alternativa al PC. Tienen gran facilidad de uso y algunos inconvenientes como su precio. Son muy utilizados en autoedición y, en general, en todo lo relacionado con las artes gráfica.







A lo largo del último medio siglo, las computadoras han ido duplicando su velocidad cada dos años, al tiempo que el tamaño de sus componentes se reducía a la mitad (Ley de Moore). Actualmente, los circuitos contienen transistores y líneas de conducción cuya anchura es sólo una centésima parte de la de un cabello humano, y las máquinas son millones de veces más potentes que sus antepasados.

El incremento del poder de las computadoras se debe esencialmente a la miniaturización incesante del componente más elemental de la computadora, el transistor. Cuando los transistores se reducen de tamaño, se logran integrar en un solo microchip y se incrementa el poder computacional. Sin embargo, las técnicas de integración de microcircuitos están empezando a tropezar con sus límites. Al rebasar cierta escala de miniaturización, el tamaño de los componentes electrónicos se convierte en un problema: los conductores atascados y los transistores apenas funcionan.

Mediante técnicas litográficas avanzadas podrían producirse elementos cien veces menores que los hoy disponibles. Pero a tal escala, la materia se presenta como una muchedumbre de átomos disgregados y los circuitos integrados apenas consiguen funcionar. Al reducir la escala diez veces más, los átomos manifiestan ya su identidad individual y un solo defecto provoca una catástrofe.

La Ciencia de la Computación, en busca de una alternativa a la tecnología del transistor y una solución al problema de la miniaturización ha iniciado el estudio nuevas tecnologías para la creación de las computadoras del futuro.


COMPUTADORES CUÁNTICOS. Usarán los estados cuánticos del átomo para representar la información. Realizan las operaciones en bits cuánticos, llamados qubits. Un qubit al igual que un bit clásico puede estar en dos estados, cero o uno, pero debido a las propiedades de la mecánica cuántica, puede estar simultáneamente en ambos estados.


 
Los ordenadores electrónicos tradicionales se acercan a sus límites teóricos referidos a tamaño y velocidad. La miniaturización de los chips en los ordenadores tradicionales y conseguir máquinas más avanzadas es cada vez más complicado, ya que las propias leyes de la física suponen un límite. Algunos científicos creen que la computación óptica desatará una nueva revolución en máquinas más pequeñas y más rápidas.

COMPUTADORES ÓPTICOS. Se trata de utilizar luz en lugar de electricidad para transmitir datos, lo que aceleraría la transmisión de datos entre ordenadores y redes. Estas computadoras funcionarán mediante la emisión continua de pulsos de luz (fotones) que duren apenas una trillonésima parte de un segundo (un attosegundo). Transportarían información diez veces más rápido que los más veloces ordenadores convencionales, rompiéndose el límite de velocidad intrínseco de la tecnología del silicio.


Investigadores de diferentes universidades llevan años trabajando en ello:
Computador óptico con luz lenta (Universidad de Harvard)
Científicos británicos intentan que un ordenador "vea la luz" (Universidad de Bath)


Referencias
Conceptos Informáticos Básicos (PDF)
Conceptos Informáticos Básicos (ISSUU)
Informática. Conceptos fundamentales (PDF)
Nociones sobre bits, bytes y binario
Computadoras analógicas y digitales
Tipos de computadoras
¿Qué es el código binario?

No hay comentarios:

Publicar un comentario