martes, 10 de febrero de 2015

 LA ERA DE LA ELECTRÓNICA

PRIMERA GENERACIÓN

  •  1943, 1946: Electronic Numérica Integrador Calculador (ENIAC) de Ecker y Mauchly, primer computador electrónico. Supuso un gran avance al incorporar el primer elemento electrónico, las válvulas de vacío. Su velocidad de calculo era inmensamente superior a la MARK I
  • 1944: El doctor John von Neumann desarrolla la idea de programa interno o almacenado y escribe el fundamento teórico de construcción de un ordenador electrónico, que es, básicamente, el que siguen los ordenadores actuales.
  • 1945-1951: EDVAC, fue el primero en trabajar con programa almacenado. En realidad, fue una modificación del ENIAC.
  • 1951: UNIVAC-I, de Mauchly. Fue el primer ordenador comercial, usaba cintas magnéticas, en lugar de tarjetas perforadas.
  • 1952-1955: MANIAC-I, MANIAC-II, UNIVAC-II, evoluciones de los modelos anteriores con mejoras continuas. Aparecen los primeros disco duros de núcleos de ferritas.
                                       
SEGUNDA GENERACIÓN 
  • 1955-1964: IBM 1401 Se sustituye la válvula de vacío por el transistor. Esta innovación supuso una reducción considerable del tamaño a la vez que ganaban en potencia, rapidez, habilidad. Se introducen los lenguajes de alto nivel.

                                                          

TERCERA GENERACIÓN 
  • 1964-1974: IBM 370. Ordenadores basados en circuitos integrados, supuso: la minimizacion de los ordenadores evolución del software y el sistema operativo. En los circuitos integrados , sus componentes electrónicos están encapsulados en una sola pieza; resistencias; transistores, diodos, condensadores,interpretados entre si.
                                             

CUARTA GENERACIÓN
  • 1974-1983: Intel 4004. Presenta toda la CPU en un único circuito integrado, el microprocesador. Aparecen los ordenadores personales. Gran perfeccionamiento de la unidades de almacenamiento, sentó las bases para los ordenadores modernos. 
                                                                
QUINTA GENERACIÓN
  • 1983: Japón lanzo el llamado programa de la quinta generación de computadoras, con los objetivos explícitos de producir maquinas capaces de comunicarse en un lenguaje mas cotidiano y no a través de los códigos o lenguajes de control especializados  en  Estados Unidos ya están desarrollando un programa que perseguía objetivos semejante: 
  • Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
  • Manejo de lenguaje natural y sistemas de inteligencia artificial.

                                                
REPRESENTACIÓN INTERNA DE LA INFORMACIÓN

El bit es la unidad mínima de información; con el que podemos representar dos valores cualesquiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, rojo o azul... Basta con asignar uno de estos valores al estado de <<apagado>> (0) y el otro estado de <<encendido>>.

  • OCTETO, CARÁCTER O BIT: Es la agrupación de 8 bit, el tamaño típico de la información; con el que se puede codificar el alfabeto completo (ASCII estándar).
  • PALABRA: tamaño de información manejada en paralelo por los componentes del sistema, como la memoria, los registros o las buses. Son comunes las palabras de 8, 32, 6, 128 y 256 bits:1 byte, 4,8,16,32 bytes. A mayor tamaño de palabra, mayor es la precisión y la potencia de calculo del ordenador.
ASCII

El código estadounidense estandard para el intercambio de información, o ASCII (American Standard Code for Information Interchange), X3.4-1977 del Instituto Estadounidense de Normas Nacionales (ANSI).
El código ASCII extendido usa 8 bits por carácter, lo que añade otro 128 caracteres posibles permiten que se agreguen los símbolos de los lenguajes extranjeros.

UNICODE
 
El unicode standard es una norma de codificación universal de caracteres que se emplea en los ordenadores bajo windows NT y en los navegadores de Internet explorer y netscape a partir de su versión  4. su uso se esta extendiendo. Utiliza 16 bits, lo que permite codificar todos los caracteres de cualquier lenguaje, hasta 65536.


EL SISTEMA OCTAL

Los primeros sistemas informáticos utilizaban solo el sistema binario para interpretar y transformar datos. El sistema octal tiene como base de numeración 8, es decir, utiliza ocho símbolos para representar cantidades. Estos símbolos son: 0,1,2,3,,5,6,7.

  • CONVERSIÓN DE UN NUMERO DECIMAL A OCTAL. Lo mas sencillo son las divisiones sucesivas.
                                               
  • PARA CONVERTIR UN NUMERO OCTAL A DECIMAL. Emplearemos el teorema fundamental de la numeración.

                                                       
  • CONVERSIÓN DE UNA FRACCIÓN DECIMAL A OCTAL. Se procede como el sistema binario, con el método de multiplicaciones sucesivas, lo único que cambia es la base.
                                                     

EL SISTEMA HEXADECIMAL

El sistema hexadecimal tiene como base de numeracion 16, es decir, utiliza dieciseis simbolos para representar las cantidades. Estos simbolos son 0,1,2,3,,5,6,7,8,9,A.B,C,D,E,F.
           
                              

                 
B. CONVERSIÓN DE UNA FRACCIÓN DECIMAL A BINARIO.

La forma mas sencilla de convertir una fracción decimal a binario consiste en multiplicar sucesivamente la parte fraccionaria por 2 hasta de 0 como resultado.

                         


C. CONVERSIÓN DE UNA FRACCIÓN BINARIA A DECIMAL.

Para esta se utiliza el teorema fundamental de la numeración. El resultado es la suma de los productos de los resultados de multiplicar cada dígito por la base elevado a la posición que ocupa pero en negativo.




D. SUMA Y RESTA EN BINARIO.
.
Al igual que con el sistema decimal, en el sistema binario podemos realizar las operaciones aritméticas: suma, resta, multiplicación y división

                                               

EJEMPLO:


         

E. MULTIPLICACIÓN BINARIA.

Se realiza como en la multiplicación decimal, con la diferencia de que luego se hacen las sumas en binario. Para los productos, utilizaremos la tabla 1.10.

                                          
EJEMPLO:

                     

F. DIVISIÓN  BINARIA

Se efectúa como la división decimal, pero las multiplicaciones y las restas internas se hacen en binario.


                  




EL SISTEMA BINARIO
El sistema binario utiliza dos dígitos (0 y 1) para representar cantidades, por lo que su base es 2. Cada numero representado por este sistema se denomina bit (binary digit).
Los bits tienen distinto valor dependiendo de la posición que  ocupan por eso este sistema es posicional.

A. CONVERSIÓN DE UN NUMERO DECIMAL A BINARIO.

Para representar un numero en sistema binario solo podemos utilizar los dígitos 0 y 1, la forma mas simple de convertir a binario es dividir sucesivamente el numero decimal y los cocientes que van obteniendo por 2 hasta que el cociente sea menor que 2. La unión del ultimo cociente y todos los restos obtenidos, escritos en orden inverso, sera el numero expresado por en binario.


SISTEMA DE NUMERACIÓN

Sistema de numeración como el conjunto de símbolos utilizados para la representación de cantidades, así como las reglas que rigen dicha representación.

El sistema de numeración que utilizamos normalmente es el sistema decimal, de base 10.
 0,1,2,3,4,5,6,7,8,9




¿QUE ES INFORMATICA?

La informatica es la ciencia que estudia el tratamiento automático y racional de la información.
La informatica usa las computadoras u ordenadores para el tratamiento y el proceso de la de la informacion.

                                         MEDIO
    EMISOR  ----------->   RECEPTOR

  • Emisor, fuente o transmisor: es el que genera o emite la información.
  • Receptor: es el que recibe la información.
  • Medio o canal: vía de transmisor de la información.

                DATOS-----------> EMISOR----------> DATOS

Podemos definir informacion como la representación de hechos, objetos, valores, ideas, etc., que permiten la comunicacion entre emisor y receptor, y la del conocimiento de las cosas.