lunes, 31 de marzo de 2014

Introducción a Microsoft Power Point.

Es un programa de presentación con texto esquematizado, así como presentaciones en diapositivas, animaciones de texto e imágenes prediseñadas o importadas. 
Microsoft PowerPoint es un programa de presentación desarrollado por la empresa Microsoft para sistemas operativos Microsoft Windows y Mac OS, ampliamente usado en distintos campos como la enseñanza, negocios, etc. Según las cifras de Microsoft Corporation, cerca de 30 millones de presentaciones son realizadas con PowerPoint cada día. Forma parte de la suite Microsoft Office.
Es un programa diseñado para hacer presentaciones con texto esquematizado, así como presentaciones en diapositivas, animaciones de texto e imágenes prediseñadas o importadas desde imágenes de la computadora. Se le pueden aplicar distintos diseños de fuente, plantilla y animación. Este tipo de presentaciones suelen ser más prácticas que las de Microsoft Word.
PowerPoint es uno de los programas de presentación más extendidos. Viene integrado en el paquete Microsoft Office como un elemento más, que puede aprovechar las ventajas que le ofrecen los demás componentes del equipo para obtener un resultado óptimo.
Con PowerPoint y los dispositivos de impresión adecuados se pueden realizar muchos tipos de resultados relacionados con las presentaciones: transparencias, documentos impresos para los asistentes a la presentación, notas y esquemas para el presentador, o diapositivas estándar de 35mm.
PowerPoint es software que le permite crear materiales que se pueden utilizar en un proyector. El uso de este material para anunciar un informe o una propuesta se denomina presentación. Al usar PowerPoint, puede crear pantallas que incorporan efectivamente texto y fotos, ilustraciones, dibujos, tablas, gráficos y películas, y pasar de una diapositiva a otra como en una presentación con diapositivas. Puede animar texto e ilustraciones en la pantalla usando la característica de animación, así como agregar una narración y efectos de sonido. También, puede imprimir materiales y distribuirlos mientras realiza la presentación.
PowerPoint es una parte de “Office”, un conjunto de productos que combina varios tipos de software para crear documentos, hojas de cálculos, presentaciones y administrar correo electrónico.
File:Microsoft PowerPoint 2013 Default Screen.png










Introducción a Microsoft word.

Es un procesador de textos pensado para crear documentos de oficina o correspondencia.
Microsoft Word es un software destinado al procesamiento de textos.
Fue creado por la empresa Microsoft, y actualmente viene integrado en la suite ofimática Microsoft Office.
Originalmente fue desarrollado por Richard Brodie para el computador de IBM bajo sistema operativo DOS en 1983.Versiones subsecuentes fueron programadas para muchas otras plataformas, incluyendo, las computadoras IBM que corrían en MS-DOS (1983). Es un componente de la suite ofimática Microsoft Office; también es vendido de forma independiente e incluido en la Suite de Microsoft Works. Las versiones actuales sonMicrosoft Office Word 2013 para Windows y Microsoft Office Word 2011 para Mac. Ha llegado a ser el procesador de texto más popular del mundo.
En sus inicios, Word tardó más de 5 años en lograr el éxito en un mercado en el que se usaba comúnmente MS-DOS, y cuando otros programas, como Corel WordPerfect, eran mucho más utilizados y populares.
La primera versión de Microsoft Word fue un desarrollo realizado por Charles Simonyi y Richard Brodie, dos ex-programadores de Xerox contratados en 1981 por Bill Gates y Paul Allen. Estos programadores habían trabajado en Xerox Bravo, que fuera el primer procesador de textos desarrollado bajo la técnica WYSIWYG (“What You See Is What You Get”); es decir el usuario podía ver anticipadamente, en pantalla, el formato final que aparecería en el impreso del documento. Esta primera versión, Word 1.0, salió al mercado en octubre de 1983 para la plataforma Xenix MS-DOS; en principio fue rudimentario y le siguieron otras cuatro versiones muy similares que no produjeron casi impacto en las ventas a usuarios finales.
La primera versión de Word para Windows salió en el año 1989, que si bien en un entorno gráfico resultó bastante más fácil de operar, tampoco permitió que las ventas se incrementaran notablemente. Cuando se lanzó al mercado Windows 3.0, en 1990, se produjo el real despegue. A Word 1.0 le sucedieron Word 2.0 en 1991, Word 6.0 en 1993. El posterior salto en los números de versión se introdujo a fin de que coincidiera con la numeración del versionado de Windows, tal como fue Word 95 y Word 97. Con la salida del Windows 2000 (1999) también surgió la versión homóloga de Word. La versión Word 2002 emergió en la misma época que el paquete Microsoft Office XP, en el año 2001. Un año después le siguió la versión Microsoft Word 2003. Posteriormente se presentó Microsoft Word 2007 junto con el resto de aplicaciones del paquete Office 2007, en esta versión, Microsoft marcó un nuevo cambio en la historia de las aplicaciones office presentando la nueva interfaz Ribbons más sencilla e intuitiva que las anteriores (aunque muy criticada por usuarios acostumbrados a las versiones anteriores). La versión más reciente lanzada al mercado es Microsoft Word 2013, en el mismo año en el que salió el sistema Microsoft Windows 8.
Microsoft Word es en el 2009 líder absoluto en ese sector del mercado, contando con alrededor de 500 millones de usuarios (cifras de 2008);  y si bien ya ha cumplido sus 25 años, continúa su liderazgo; pero ya los procesadores de texto basados en la red y las soluciones de código abierto comenzaron a ganarle terreno.
El 11 de agosto de 2009, el juez Leonard Davis de la Corte Federal de los EE.UU. en el Distrito Este de Texas, División Tyler, emitió una orden judicial por la que debe ponerse en práctica dentro de 60 días la prohibición de la venta de Microsoft Word en los Estados Unidos, después de aceptar las reclamaciones que Microsoft infringió deliberadamente la patente EE.UU. 5787449 en poder de la empresa canadiense i4i con base en Toronto que describe la utilidad de la estructura de la edición por separado (por ejemplo, SGML, XML) y el contenido de los documentos de Microsoft Word, originalmente implementada en 1998, en editor de i4i XML add-on para Microsoft Word con el nombre S4. El juez Davis también ordenó a Microsoft pagar a i4i 40 millones dólares de daños mayores por infracción deliberada así como otros gastos, una sentencia en adición a la sentencia de 200 millones dólares contra Microsoft en marzo de 2009. Trajes de Patentes se han interpuesto en los tribunales del Distrito Este de Texas, como es conocido por favorecer a los demandantes y por su experiencia en casos de patentes. Antes de entrar en la escuela de leyes en 1974, el juez Davis trabajó como programador de computadoras y analista de sistemas.
Microsoft ha presentado una moción de emergencia en la que pidió la suspensión de esa decisión. En su petición, la empresa afirma que es "gastar un enorme capital humano y financiero para hacer su mejor esfuerzo para cumplir con el plazo del tribunal de distrito de 60 días". Además de que la alegación de la de patentes en el corazón de esta cuestión ya ha sido provisionalmente rechazada por la Oficina de Patentes de EE.UU. tras un nuevo examen de la patente.















Algoritmos y diagramas de flujo.

Algoritmo.-
En matemáticas, lógica, ciencias de la computación y disciplinas relacionadas, un algoritmo (del griego y latín, dixit algorithmus y este a su vez del matemático persa Al-Juarismi ) es un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad.2 Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Los algoritmos son el objeto de estudio de la algoritmia.1
En la vida cotidiana, se emplean algoritmos frecuentemente para resolver problemas. Algunos ejemplos son los manuales de usuario, que muestran algoritmos para usar un aparato, o las instrucciones que recibe un trabajador por parte de su patrón. Algunos ejemplos en matemática son el algoritmo de multiplicación, para calcular el producto, el algoritmo de la división para calcular el cociente de dos números, el algoritmo de Euclides para obtener el máximo común divisor de dos enteros positivos, o el método de Gauss para resolver un sistema lineal de ecuaciones.
En general, no existe ningún consenso definitivo en cuanto a la definición formal de algoritmo. Muchos autores los señalan como listas de instrucciones para resolver un cálculo o un problema abstracto, es decir, que un número finito de pasos convierten los datos de un problema (entrada) en una solución (salida).Sin embargo cabe notar que algunos algoritmos no necesariamente tienen que terminar o resolver un problema en particular. Por ejemplo, una versión modificada de la criba de Eratóstenes que nunca termine de calcular números primos no deja de ser un algoritmo. 
Un Algoritmo, se puede definir como una secuencia de instrucciones que representan un modelo de solución para determinado tipo de problemas. O bien como un conjunto de instrucciones que realizadas en orden conducen a obtener la solución de un problema. Por lo tanto podemos decir que es un conjunto ordenado y finito de pasos que nos permite solucionar un problema.
Los algoritmos son independientes de los lenguajes de programación. En cada problema el algoritmo puede escribirse y luego ejecutarse en un lenguaje de diferente programación. El algoritmo es la infraestructura de cualquier solución, escrita luego en cualquier lenguaje de programación.
Diagrama de flujo.-
Los diagramas de flujo son descripciones gráficas de algoritmos; usan símbolos conectados con flechas para indicar la secuencia de instrucciones y están regidos por ISO.
Los diagramas de flujo son usados para representar algoritmos pequeños, ya que abarcan mucho espacio y su construcción es laboriosa. Por su facilidad de lectura son usados como introducción a los algoritmos, descripción de un lenguaje y descripción de procesos a personas ajenas a la computación.
Los algoritmos pueden ser expresados de muchas maneras, incluyendo al lenguaje natural, pseudocódigo, diagramas de flujo y lenguajes de programación entre otros. Las descripciones en lenguaje natural tienden a ser ambiguas y extensas. El usar pseudocódigo y diagramas de flujo evita muchas ambigüedades del lenguaje natural. Dichas expresiones son formas más estructuradas para representar algoritmos; no obstante, se mantienen independientes de un lenguaje de programación específico.
El diagrama de flujo o diagrama de actividades es la representación gráfica del algoritmo o proceso. Se utiliza en disciplinas como programación,economía, procesos industriales y psicología cognitiva.
En Lenguaje Unificado de Modelado (UML), un diagrama de actividades representa los flujos de trabajo paso a paso de negocio y operacionales de los componentes en un sistema. Un diagrama de actividades muestra el flujo de control general.
En SysML el diagrama de actividades ha sido extendido para indicar flujos entre pasos que mueven elementos físicos (e.g., gasolina) o energía (e.g., presión). Los cambios adicionales permiten al diagrama soportar mejor flujos de comportamiento y datos continuos.
Estos diagramas utilizan símbolos con significados definidos que representan los pasos del algoritmo, y representan el flujo de ejecución mediante flechas que conectan los puntos de inicio y de fin de proceso.

Un diagrama de flujo es una representación gráfica de un proceso. Cada paso del proceso es representado por un símbolo diferente que contiene una breve descripción de la etapa de proceso. Los símbolos gráficos del flujo del proceso están unidos entre sí con flechas que indican la dirección de flujo del proceso.
 El diagrama de flujo ofrece una descripción visual de las actividades implicadas en un proceso mostrando la relación secuencial ente ellas, facilitando la rápida comprensión de cada actividad y su relación con las demás, el flujo de la información y los materiales, las ramas en el proceso, la existencia de bucles repetitivos, el número de pasos del proceso, las operaciones de interdepartamentales… Facilita también la selección de indicadores de proceso.












Historia de la computación./TIC y HDT

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.


La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.

Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculocon una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados reveladores.


TIC.
Las tecnologías de la información y la comunicación (TIC), a veces denominadas nuevas tecnologías de la información y la comunicación (NTIC) son un concepto muy asociado al de informática. Si se entiende esta última como el conjunto de recursos, procedimientos y técnicas usadas en el procesamiento, almacenamiento y transmisión de información, esta definición se ha matizado de la mano de las TIC, pues en la actualidad no basta con hablar de una computadora cuando se hace referencia al procesamiento de la información. Internet puede formar parte de ese procesamiento que, quizás, se realice de manera distribuida y remota. Y al hablar de procesamiento remoto, además de incorporar el concepto de telecomunicación, se puede estar haciendo referencia a un dispositivo muy distinto a lo que tradicionalmente se entiende por computadora pues podría llevarse a cabo, por ejemplo, con un teléfono móvil o una computadora ultra-portátil, con capacidad de operar en red mediante Comunicación inalámbrica y con cada vez más prestaciones, facilidades y rendimiento.


Las tecnologías de la información y la comunicación (TIC) -la unión de los computadores y las comunicaciones- desataron una explosión sin precedentes de formas de comunicarse al comienzo de los años '90.  A partir de ahí, la Internet pasó de ser un instrumento especializado de la comunidad científica a ser una red de fácil uso que modificó las pautas de interacción social.
Por Tecnologías de la información o Tecnologías de la información y de la comunicación (TIC) se entiende un termino dilatado empleado para designar lo relativo a la informática conectada a Internet, y especialmente el aspecto social de éstos. Ya que Las nuevas tecnologías de la información y comunicación designan a la vez un conjunto de innovaciones tecnológicas pero también las herramientas que permiten una redefinición radical del funcionamiento de la sociedad; Un buen ejemplo de la influencia de los TIC sobre la sociedad es el gobierno electrónico.

En resumen las nuevas tecnologías de la Información y Comunicación son aquellas herramientas computacionales e informáticas que procesan, almacenan, sintetizan, recuperan y presentan información representada de la más variada forma. Es un conjunto de herramientas, soportes y canales para el tratamiento y acceso a la información. Constituyen nuevos soportes y canales para dar forma, registrar, almacenar y difundir contenidos informacionales. Algunos ejemplos de estas tecnologías son la pizarra digital (ordenador personal + proyector multimedia), los blogs, el podcast y, por supuesto, la web.
Para todo tipo de aplicaciones educativas, las TIC son medios y no fines. Es decir, son herramientas y materiales de construcción que facilitan el aprendizaje, el desarrollo de habilidades y distintas formas de aprender, estilos y ritmos de los aprendices.
                                     
HDT.
Son el conjunto de habilidades y capacidades relacionadas con el uso de las Tecnologías de Información y Comunicación (TIC) en los procesos de aprendizaje.


Habilidades Digitales para Todos es una estrategia educativa integral que impulsa el desarrollo y utilización de Tecnologías de la Información y la Comunicación (TIC) en las escuelas de educación básica, a través de un modelo pedagógico que contempla: la formación y certificación de los docentes y directivos; el equipamiento tecnológico y la conectividad (Aula Telemática); la generación de materiales educativos, y el desarrollo de sistemas de información que permitan la gestión escolar y el uso de contenidos íntimamente relacionados con los planes y programas de estudio, así como de herramientas de comunicación y colaboración que propicien la generación de redes de aprendizaje entre los distintos miembros de la comunidad escolar.
Su objetivo es proporcionar elementos sobre el manejo de la información que acompañen el proceso educativo, dentro y fuera de la escuela, para apoyar el aprendizaje de los estudiantes, ampliar sus competencias para la vida y el desarrollo de habilidades fundamentales que demanda la sociedad del conocimiento, con lo que se favorecerá su inserción en ésta.
En el Aula Telemática, los alumnos y maestros interactúan con los materiales educativos digitales, a través del equipamiento, la conectividad y las plataformas tecnológicas. Esta mediación se da, dentro y fuera del aula, en el horario de clase y fuera de él, en el centro educativo, en casa o en lugares públicos como centros comunitarios o los cibercafés. No obstante, estos ambientes tecnológicos se convierten en ambientes de aprendizaje, gracias a la actuación del docente, que los construye y emplea.




















Generación de computadoras.

Primera generación de computadoras (1945-1955).

Utilizaban engranes y válvulas de vació, mucho espacio, sus programas no residían en memoria, equipo representativo MARK1, ENIAC y UNIVAC.

Todos sabemos que los computadores han invadido la mayoría de las labores del ser humano. Pero todo tiene un comienzo y, en esta ocasión conoceremos algo sobre la primera generación de computadores. Se denomina “Generación de computadores” a cualquiera de los periodos en que se divide la historia de las computadores.  

Características de la primera  generación de computadores:

•    Construidas básicamente con tubos de vacío para procesar la información.
•    Eran programadas en lenguaje máquina (código binario).
•    Utilizaban tarjetas perforadas (inventadas por el francés J. M .Jacquard y perfeccionadas por el                          estadounidense Herman Hollerith en 1890) para entrar datos a los programas.
•    Gran tamaño
•    Utilizaban gran cantidad de electricidad, lo que generaba gran cantidad de calor.
•    Comercialización casi nula. Su precio variaba entre 1 y 2,5 millones de dólares
•    Eran muy lentas.

Principales modelos de computadoras pertenecientes a esta generación:

ENIAC (1946): Era capaz de resolver problemas, calcular con gran velocidad las trayectorias de proyectiles, principal objetivo de su construcción, podía resolver 5 mil  sumas y 360 multiplicaciones por segundo, pero su programación era terriblemente tediosa y debían cambiársela de tubos continuamente.  

EDVAC (1949): Conocida como la primera computadora programable. Ésta podía almacenar, además de los datos, las instrucciones o programas que regirían su propio funcionamiento.

UNIVAC (1951): La primera UNIVAC se instaló en 1951 en la Oficina del Censo de Estados Unidos, departamento para el que realizó uno de sus logros más importantes: la predicción del ganador de las elecciones presidenciales norteamericanas en 1952. En total se vendieron 48 unidades y la UNIVAC demostró que había un mercado para las computadoras.

IBM 701 (1953): Para introducir los datos, estos equipos empleaban tarjetas perforadas. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.

Segunda generación de computadoras (1955-1965).

Usaban transistores, no generaban tanto calor, procesaban datos por lotes, empezaron a usarse lenguajes para dar instrucciones a la computadora. 

Características de ésta generación: Usaban transistores para procesar información. Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producían gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación.
La segunda generación de las computadoras reemplazó a las válvulas de vacío por los transistores.

Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo, Computadora Whirlwind. Se comenzó a disminuir el tamaño de las computadoras.
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Mánchester. 
Algunas características: 
  • Estaban construidas con la electrónica de transistores
  • Se programaban con lenguajes de alto nivel
  • 1951, Maurice Wilkes inventa la microprogramación, que simplifica mucho el desarrollo de las CPU pero esta microprogramación también fue cambiada más tarde por el computador alemán Bastian Shuantiger
  • 1956, IBM vendió por un valor de 1.230.000 dólares su primer sistema de disco magnético, el RAMAC (Random Access Method of Accounting and Control). Usaba 50 discos de metal de 61 cm, con 100 pistas por lado. Podía guardar 5 megabytes de datos, con un coste de 10.000$ por megabyte.
  • El primer lenguaje de programación de propósito general de alto-nivel, FORTRAN, también estaba desarrollándose en IBM alrededor de este tiempo. (El diseño de lenguaje de alto-nivel Plankalkül de 1945 de Konrad Zuse no se implementó en ese momento).

Tercera generación de computadoras (1965-1980).

Usaban circuitos integrados (CHIPS) e incluían programas en su sistema de memoria, lenguajes de programación compartían daros con máquinas semejantes, nace la compatibilidad de datos.

Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas. La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador. Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos años más para que las grandes compañías  fabricaran los dispositivos que permitiesen desarrollar computadoras más poderosas y veloces. 
A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del microprocesador, en Intel. A finales de 1960, investigadores como George Gamow notaron que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
La tercera generación de computadoras se desarrolló desde 1964 hasta 1971 y se caracterizó principalmente por la disminución del tamaño medio de las computadoras y por la incorporación de los circuitos integrados (chips de silicio). Si bien los circuitos integrados fueron inventados en 1958, tuvieron que transcurrir algunos años para que las grandes compañías crearan los dispositivos electrónicos adecuados en los que estos circuitos podrían ser utilizados.

Cuarta generación de computadoras (1980-1990).

IBM inventa la primera computadora personal que usaba microprocesadores. Usaba menos energía, eran más rápidas, por todo esto empezaron a ser llamados microcomputadoras.

Fase caracterizada por la integración sobre los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las super computadoras.

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática"En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Quinta generación de computadoras (1990 a la fecha).

Uso de sistema de instrucciones y operación (sistemas operativos), realizan diversas funciones a la vez, usan más de un procesador, se inicia la inteligencia artificial y robótica.
Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo. En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Las computadoras de quinta generación son computadoras basadas en inteligencia artificial.
La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.
Sexta generación de computadoras (¿¿?).

Creación de redes e Internet (alámbricas e inalámbricas), la web 2.0, comunicación entre sí a través de redes, expansión del comercio electrónico.
Esta es la generación actual que nos toco vivir, los avances en esta etapa han sido los mas grandes. Esta generación se puede considerar la continuación de la cuarta generación, ya que la quinta generación fue un proyecto separado a la evolución de los primeros microprocesadores.
Aparecieron las computadoras mas pequeñas y mas potentes procesadores mas rápidos y menor consumo de energía, los sistemas operativos dejaron de ser por linea de comando y ahora eran con interfaz gráfica.
La velocidad de los procesadores aumento dramáticamente del orden de Mhz a las primeras unidades de Ghz, las tarjetas de vídeo experimentaron cambios en los puertos de interfase desde los ISA hasta los actuales PCI express y comenzaron a jugar un papel determinante en el desempeño de las computadoras al quitarle la carga de procesamiento de gráficos al procesador, los discos duros que eran de Megabytes ahora son de Terabytes pasando por los discos con motor eléctrico a los nuevos con memorias (SSD) por ende la velocidad de lectura y escritura hoy superan los 300 Megabityes por segundo, los monitores que eran monocromaticos evolucionaron a los monitores de color con millones de colores y después se elimino el cinescopio dando cabida a los monitores LCD con menor consumo de energía.















martes, 25 de marzo de 2014

Computadora

Computadora.

Es un dispositivo electrónico capaz de procesar información rápida y exacta.
Una computadora o computador (del inglés computer y este del latín computare -'calcular'), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que pueden ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadasorganizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador.




Sus partes.-

Unidad central de procesos (UCP).

Es la parte más importante de la computadora, en ella se realizan todos los procesos de la información. La UCP está estructurada por un circuito integrado llamado microprocesador, el cual varía en las diferentes marcas de computadoras.
La UCP se divide en dos unidades:
Unidad Aritmético Lógica (UAL).- Es la parte del computador encargada de realizar las: operaciones aritméticas y lógicas, así como comparaciones entre datos.
Unidad de Control (UC).- Se le denomina también la parte inteligente del microprocesador, se encarga de distribuir cada uno de los procesos al área correspondiente para su transformación.

Dispositivos de entrada (DE).
Los dispositivos de entrada son aquellos al través de los cuales se mandan datos a la unidad central de procesos, por lo que su función es eminentemente emisora. Algunos de los dispositivos de entrada más conocidos son el teclado, el manejado de discos magnéticos, la reproductora de cinta magnética, el ratón, el digitalizador (scanner), el lector óptico de código de barras y el lápiz óptico entre otros.


Dispositivos de salida (DS).

Los dispositivos de salida son aquellos que reciben información de la computadora, su función es eminentemente receptora y por ende están imposibilitados para enviar información. Entre los dispositivos de salida más conocidos están: la impresora (matriz, cadena, margarita, láser o de chorro de tinta), el delineador (plotter), la grabadora de cinta magnética o de discos magnéticos y la pantalla o monitor.

El mouse.

El mouse (del inglés, pronunciado [ ˈmaʊs ]) o ratón es unperifér ico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor


El teclado.
El teclado de computadora es un periférico utilizado para la introducción de órdenes y datos en una computadora. Existen distintas disposiciones de teclado, para que se puedan utilizar en diversos lenguajes. El tipo estándar de teclado inglés se conoce como QWERTY. Denominación de los teclados de computadora y máquinas de escribir que se utilizan habitualmente en los países occidentales, con alfabeto latino. Las siglas corresponden a las primeras letras del teclado, comenzando por la izquierda en la fila superior. El teclado en español o su variante latinoamericana son teclados QWERTY que se diferencian del inglés por presentar la letra "ñ" y "Ñ" en su distribución de teclas. 

Se han sugerido distintas alternativas a la disposición de teclado QWERTY, indicando ventajas tales como mayores velocidades de tecleado. La alternativa más famosa es el Teclado Simplificado Dvorak.
Sólo las teclas etiquetadas con una letra en mayúscula pueden ofrecer ambos tipos: mayúsculas y minúsculas. Para teclear un símbolo que se encuentra en la parte superior izquierda de una tecla, se emplea la tecla mayúsculas, etiquetada como "↑". Para teclear un símbolo que se encuentra en la parte inferior derecha de una tecla, se emplea la tecla Alt-Gr.
El monitor.


El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece.
Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud.
Evidentemente no en el caso de personas que hacen un uso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla.
Vamos a explicar los parámetros que influyen en la calidad de un monitor:
El tamaño de los monitores se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor.


Unidad de control.
Es la encargada de supervisar la secuencia de las operaciones que deben realizarse para ejecutar una instrucción.
- Unidad Aritmética y Lógica, es la encargada de realizar todas las operaciones que transforman los datos, en especial operaciones matemáticas como la suma y la resta, y lógicas como la negación y la afirmación.
- Registro, es donde se almacenan los datos más importantes durante la ejecución de las instrucciones; incluye el registro contador (indica qué instrucción sigue), el registro de instrucción (tiene la instrucción que se está ejecutando), el registro acumulador (donde se guardan resultados intermedios) y el registro de estado (que guarda avisos: si el resultado es cero, si es negativo, etc.
- Memoria Caché, en un área de trabajo donde se almacenan grupos de datos que se usan muy frecuentemente evitando así tener que pedirlos a la memoria principal, esta memoria se comunica directamente con la memoria principal, evitando el bus general por lo que es más rápida.
Este componente se halla instalado en una tarjeta de circuitos impresos llamada tarjeta madre (mother board) y que se encuentra dentro de una caja o gabinete metálico que es el que regularmente vemos y al que mucha gente llama CPU.
Tarjeta de sonido.
También llamadas tarjeta de audio, es un dispositivo (tarjeta de circuitos impresos) que le da a la computadora la habilidad de producir sonidos. Es la tarjeta con más clavijas y posibilidades de conexión, para las bocinas (Line out o Speaker out), CD-ROM, estéreo (Line in), micrófono (Mic. In). Contiene componentes que permite convertir el lenguaje de la computadora en sonidos y viceversa. Las bocinas o los audífonos permiten oír los sonidos producidos por la tarjeta de sonido.

Tarjeta de vídeo.
también llamadas controladores de vídeo, adaptadores de vídeo, aceleradores de vídeo, acelerador gráfico, etc. es un dispositivo (tarjeta de circuitos impresos) que controla la apariencia y determina en gran manera la calidad de las imágenes y del texto que vemos en el monitor de la computadora. Toda la información, desde el procesador de la computadora viaja a través de la tarjeta de vídeo, la cual traduce las señales y las manda al monitor para que las podamos ver. 

Tarjeta madre (Motherboard).
Una tarjeta madre es la central o primaria tarjeta de circuito de un sistema de computo u otro sistema electrónico complejo. Una computadora típica con el microprocesadormemoria principal, y otros componentes básicos de la tarjeta madre. Otros componentes de la computadora tal como almacenamiento externo, circuitos de control para vídeo y sonido, y dispositivos periféricos son unidos a la tarjeta madre vía conectores o cables de alguna clase.

Micro procesador.
El microprocesador secciona en varias fases de ejecución (la realización de cada instrucción):
PreFetch, Pre lectura de la instrucción desde la memoria principal,
Fetch, ordenamiento de los datos necesarios para la realización de la operación,
De codificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer,
Ejecución,Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concertadamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador dispone de un oscilador de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo.
                                                          Imagen:Intel 80486DX2 bottom.jpg
Bios.
(Basic Input Output System): importantes instrucciones de arranque y configuración que se hallan en un chip de memoria de sólo lectura (no se borran cuando se corta la corriente eléctrica o al apagar la computadora) llamado CMOS (Complementary Metal Oxide Semiconductor) que son accesadas por el CPU (Central Processing Unit) cuando se inicia o re-inicia la computadora. Configura la información del hardware (tarjeta madre, procesador, etc.). También contiene datos e instrucciones agregadas por el usuario como la hora y fecha o las características del disco duro, éstas se almacenan en el CMOS gracias a la batería, si se acaba la batería los datos modificados desaparecen, mientras que las especificaciones predeterminadas permanecen.
Batería: básicamente se usa para mantener el reloj interno de la computadora actualizado es decir, mantener la fecha y la hora correctas. También contribuye para conservar y mantener la configuración del equipo cuando se apaga la computadora o se corta la corriente eléctrica, ya que envía pequeñas cantidades de energía al chip CMOS (Complementary Metal Oxide Semiconductor) que tiene las instrucciones necesarias para arrancar la computadora.                                 
Disco duro (Hard Drive) C:/
Es la principal y más grande unidad de almacenamiento de información, datos y programas de una computadora, y se encuentra instalada dentro del gabinete principal del sistema.
Está formado por uno o más discos (2-8) generalmente de aluminio recubiertos por una capa de material magnético que es donde se registra, graba y almacena toda la información en pistas concéntricas divididas en sectores, y estos a su vez en bloques. Gira a grandes velocidades y las cabezas de lectura y escritura se mueven sobre la superficie del disco en un espacio de 10 a 25 millonésimas de pulgada. Se halla en una unidad herméticamente sellada para impedir que partículas de polvo interfieran en su funcionamiento. Su capacidad de almacenamiento se mide en bytes y puede llegar a tener capacidad hasta para 100 o más Gb.
                                                               
Disco flexible.
Es un dispositivo de almacenamiento de información de acceso directo, que consiste en un disco de material flexible llamado `Mylar´ recubierto de un material magnético y con el mismo sistema de grabación y lectura que un disco duro. Este disco flexible, también conocido como `floppy disk´ esta protegido por una funda de plástico en la que aparecen tres ventanas: una para el arrastre del disco, otra para la sincronía y una última para la lectura y grabación de la información.
También, posee una o más aberturas para protección contra escritura y borrado o      para definir la densidad de grabación, y una etiqueta donde se representa alguna identificación de la información contenida en el disco.
                                                              
Disco compacto (Compact Disck, CD) D:/
El uso de este tipo de disco en el campo de la informática, es en gran parte debido a la alta difusión de música en       este tipo de dispositivos. Ya que en ellos se puede almacenar una gran cantidad de información en forma de: sonidos, imágenes, video, datos, etc. Su capacidad de almacenamiento se puede medir en varios cientos de Mb (hasta 250).
En estos discos compactos la información se registra en una superficie donde se generan minúsculas perforaciones denominadas `pits´ capaces de ser detectadas mediante la incisión sobre ellas de un rayo láser, que será reflejado de distinta forma si existe o no dicha perforación.
                                                                             
Memoria DDR.
DDR, del acrónimo inglés Double Data Rate, significa memoria de doble tasa de transferencia de datos en castellano. Son módulos compuestos por memorias síncronas (SDRAM), disponibles en encapsulado DIMM, que permite la transferencia de datos por dos canales distintos simultáneamente en un mismo ciclo de reloj. Los módulos DDRs soportan una capacidad máxima de 1Gb.
Fueron primero adoptadas en sistemas equipados con procesadores AMD AthlonIntel con su Pentium 4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los procesadores de Intel Pentium 4 que disponen de un FSB (Front Side Bus) de 64 bits de datos y frecuencias de reloj desde 200 a 400 MHz.
                                                      
Memoria DDR2.
DDR2 es un tipo de memoria RAM. Forma parte de la familia SDRAM de tecnologías de memoria de acceso aleatorio, que es una de las muchas implementaciones de la DRAM.
Los modulos DDR2 son capaces de trabajar con 4 bits por ciclo, es decir 2 de ida y 2 de vuelta en un mismo ciclo mejorando sustancialmente el ancho de banda potencial bajo la misma frecuencia de una DDR tradicional (si una DDR a 200MHz reales entregaba 400MHz nominales, la DDR2 por esos mismos 200MHz reales entrega 800MHz nominales). Este sistema funciona debido a que dentro de las memorias hay un pequeño buffer que es el que guarda la información para luego transmitirla fuera del modulo de memoria, este buffer en el caso de la DDR convencional trabajaba tomando los 2 bits para transmitirlos en 1 sólo ciclo, lo que aumenta la frecuencia final. En las DDR2, el buffer almacena 4 bits para luego enviarlos, lo que a su vez redobla la frecuencia nominal sin necesidad de aumentar la frecuencia real de los módulos de memoria.
La disquetera.
La disquetera es la unidad lectora de disquetes, y ayuda a introducirlo para guardar la información.
Refiriéndonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos físicos considerados como estándar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquettes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb. El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no consiguió cuajar.