jueves, 5 de diciembre de 2019

 LAS COMPUTADORAS Y LA EDUCACIÓN

La educación no ha escapado a las aplicaciones de la computación y la informática. Desde el inicio y desarrollo de esta ciencia, se han estudiado las perspectivas y posibilidades de la misma en el proceso de enseñanza–aprendizaje; estudio que entre otros resultados se pueden señalar el incremento de la motivación y eficiencia del proceso de enseñanza – aprendizaje.
Resultado de imagen para historia de la computadora en la educacionLas primeras aplicaciones de la computación al ámbito educacional coinciden con la introducción de las computadoras de la segunda generación a finales de la década del 50. En 1960 se inicia en un proyecto en la universidad de Illinois, USA, con la meta de designar el primer gran sistema para la instrucción basada en las computadoras, el cual marcó pautas para el posterior desarrollo de las aplicaciones a la educación. Un tiempo después la corporación IBM introdujo el sistema Course Writer, un lenguaje diseñado para la preparación de materiales instructivos sobre dicha norma de computadora (Enciclopedia Encarta).

Con la aparición de las computadoras de la tercera generación, se incrementó su introducción en el campo de la educación, aparecen las primeras aplicaciones como tutoriales, repasadores, juegos, evaluadores. En esta etapa aparece el proyecto TICCIT con el cual se desarrollaba el estudio de lecciones presentadas sobre un monitor en color, con un circuito de nivel de interacción a través de una computadora donde se encontraban almacenados todas las lecciones e incluso datos de los estudiantes. En nuestro país entre 1965 y 1975, se nota un incremento de su utilización en el campo de la educación, motivadas por la aparición de un número mayor de estas máquinas reduciendo así su costo. Las aplicaciones que aparecieron en esta época, entre otras, fueron los juegos evaluadores, simuladores principalmente.

LAS COMPUTADORAS Y EL PERIODISMO


EL PERIODISMO Y SU RELACIÓN CON LAS COMPUTADORAS 
Resultado de imagen para historia de las computadoras en el periodismoEl Periodismo computacional se puede definir como la aplicación de la computación a las actividades relacionadas con el periodismo, tales como la recopilación de información, la organización de contenidos, contextualización de situaciones ambiguas o la comunicación y diseminación de información de noticias, al tiempo que se preservan valores del periodismo como la imparcialidad, la precisión y la objetividad. Este campo aprovecha para sus propósitos aspectos técnicos propios de las ciencias de la computación, incluyendo inteligencia artificial, análisis de contenidos (Procesado de Lenguaje Natural, análisis de contenidos multimedia), técnicas de visualización, personalización y sistemas de recomendación, así como también otros aspectos de la Computación social y las Ciencias de la Información.

Resultado de imagen para historia de las computadoras en el periodismoEste nuevo campo surgió en el año 2006, en el Instituto Tecnológico de Georgia, donde se impartieron cursos sobre esta materia en 2007 y 2008. En febrero de 2008, el mencionado instituto fue la sede de un Symposium sobre Computación y Periodismo, que atrajo a varios cientos de investigadores en Ciencias de la Computación y periodistas, en Atlanta. En julio de 2009, el Centro para el Estudio Avanzado de las Ciencias del Comportamiento (CASBS) en la Universidad de Stanford fue la sede de un taller para impulsar este campo.1​ El 31 de enero y 1 de febrero de 2013 tuvo lugar la segunda edición del Simposio sobre Computación y Periodismo, también en Atlanta.

Informática al servicio de la evangelización y la solidaridad


Resultado de imagen de La evangelización y las  computadoras"
Son muchas las entidades que están trabajando para la integración digital, aunque evidentemente harían falta más esfuerzos gubernamentales y de otras instituciones. Por ejemplo, en el Congreso se presentarán las iniciativas del Instituto Tecnológico de Monterrey para llevar la cultura y la educación, a través de las nuevas tecnologías, a las grandes masas populares. En el contexto eclesial cito el lema de la RIIAL: «llegar hasta los últimos», es decir los más alejados, los más necesitados. 
No basta contar con sistemas informáticos más o menos eficientes en una oficina eclesiástica si no se toman en cuenta las necesidades concretas de la Iglesia local en su conjunto. De poco sirve dotar de máquinas y servicios a quien ya cuenta con acceso a comunicación, materiales, libros, documentos, etc. Los sistemas tienen que tener en cuenta sobre todo a quien no tiene acceso a estos recursos, y se debe poner toda la creatividad posible para ofrecer las soluciones tecnológicas que faciliten su incorporación a esta realidad y sus servicios. Esto supone, además del hecho físico de que cuenten con unas computadoras, la adquisición de una «cultura de uso» de la informática que supone un esfuerzo formativo imprescindible. 
Tal objetivo da como resultado en la RIIAL el estudio constante de lo que ofrece la tecnología, seleccionando no lo más sofisticado o avanzado en sí mismo, sino aquello que permite alcanzar a todo tipo de usuarios, en particular a quienes poseen equipos menos potentes y menor infraestructura. Uno de nuestros compromisos más esforzados consiste en multiplicar los usuarios del correo electrónico allá donde no hay bibliotecas ni material evangelizador, y generar servicios que no necesiten web sino que puedan aprovechar estos sistemas mas simples de manera que , los que menos tecnología tienen, puedan recibir subsidios para la pastoral y tengan acceso a las mismas fuentes que los que poseen mas tecnología y recursos.



Música por computadora en red



La música por computadora en red (en inglés Network Music o Networked Music) es una práctica musical colaborativa dentro del campo de la música por computadora, donde, a través de una interconexión entre las computadoras de los miembros de un ensamble, banda u orquesta de laptops se establece una dinámica de creación musical colectiva, sea ésta a partir de improvisación, composición algorítmica o estrategias de interacción en red. Esta práctica está basada en la tecnología de red de computadoras y a su vez en una condición social que surge del trabajo en grupo.
La interdependencia es una característica de la música en red,2 ésta consiste en que los cambios de los parámetros en las variables de la programación de uno de los miembros del ensamble modificará alguno del los parámetros de otro miembro creándose una interacción a partir de los datos que cada participante genera. Otras características son la sincronía, la transmisión y el intercambio de datos.
Actualmente la comunicación entre computadoras se realiza al conectarse a una red de computadoras local, ya sea con la ayuda de un router o a través de Internet. Generalmente se utiliza el protocolo OSC para la transmisión de flujos de datos que se establecen entre las computadoras del ensamble, junto al protocolo TCP/IP.
Resultado de imagen de La música y las  computadoras"

La Nanotecnología y las Computadoras del Futuro

Nuevos avances en nanotecnología pone a tiro a las supercomputadoras del mañana. Dentro de unos años, las computadoras serán bastante diferentes de las actuales.

Los avances en el campo de la nanotecnología harán que las computadoras dejen de utilizar el silicio como sistema para integrar los transistores que la componen y empiecen a manejarse con lo que se llama mecánica cuántica, lo que hará que utilicen transistores a escala atómica. Aproximadamente para el año 2010, el tamaño de los transistores o chips llegará a límites de integración con la tecnología actual, y ya no se podrán empaquetar más transistores en un área de silicio, entonces se entrará al nivel atómico o lo que se conoce como mecánica cuántica. Las computadoras convencionales trabajan simbolizando datos como series de unos y ceros (dígitos binarios conocidos como bits). El código binario resultante es conducido a través de transistores, switches que pueden encenderse o prenderse para simbolizar un uno o un cero.
Las computadoras cuánticas, sin embargo, utilizan un fenómeno físico conocido como “superposición”, donde objetos de tamaño infinitesimal como electrones o átomos pueden existir en dos o más lugares al mismo tiempo, o girar en direcciones opuestas al mismo tiempo. Esto significa que las computadoras creadas con procesadores superpuestos puedan utilizar bits cuánticos, que pueden existir en los estados de encendido y apagado simultáneamente. De esta manera, estas computadoras cuánticas pueden calcular cada combinación de encendido y apagado al mismo tiempo, lo que las haría muchísimo más veloces que los actuales procesadores de datos a la hora de resolver ciertos problemas complejos de cálculos matemáticos.

La investigación de la computación cuántica está ganando terreno rápidamente en laboratorios de investigación militares, de inteligencia y universidades alrededor del planeta. Entre otros, están involucrados gigantes como AT&T , IBM , Hewlett-Packard , Lucent and Microsoft . Por otro lado, físicos del Instituto Nacional de Estándares y Tecnología (NIST en sus siglas en inglés), realizaron experimentos en los cuales demostraron las cualidades de los nanotubos (diminutos tubos de carbón, tan pequeños que no pueden verse a simple vista, y tienen propiedades eléctricas inusuales) como conductores, lo que permitirá que se transforme en una realidad las computadoras cuánticas. Cuando sean construidas, las mismas tendrán una potencia mucho mayor que los actuales sistemas de encriptación de datos, permitirán una búsqueda mucho más rápida en gigantescas bases de datos, el desarrollo de productos como firmas digitales a prueba de fraudes o simular complejos sistemas biológicos para el diseño de nuevas drogas.

Otro grupo de investigadores, de la Universidad de Tecnología Delft de Holanda, desarrollaron nanotubos a los cuales le agregaron electrodos de aluminio en cada extremo, y analizaron el comportamiento de estos cables a temperaturas cercanas al cero. A esas temperaturas, el aluminio se vuelve superconductivo, permitiendo la conducción de corriente eléctrica. De esta manera, los nanotubos superconductores forman parte de la circuitería necesaria para el desarrollo de una futura computadora cuántica.

jueves, 24 de octubre de 2019

Historia de las computadoras. Computadoras personales

Historia de las computadoras
Computadoras personales


La historia de las computadoras personales como dispositivos electrónicos de consumo para el mercado masivo comenzó efectivamente en 1979 con la introducción de las microcomputadoras, aunque ya se habían aplicado mucho antes, algunas computadoras mainframe y computadoras centrales como sistemas monousuario.

Un computador personal es una microcomputadora, un computador u ordenador de sobremesa, diseñado en principio para ser usado por una sola persona a la vez, y que es compatible con el PC de IBM (aunque en el lenguaje corriente se puede referir también a equipos incompatibles). Un computador personal es generalmente de tamaño medio y es usado por un sólo usuario (aunque hay sistemas operativos que permiten varios usuarios simultáneamente, lo que es conocido como multiusuario).
Una computadora personal suele estar equipado para cumplir tareas comunes de la informática moderna, es decir permite navegar por Internet, escribir textos y realizar otros trabajos de oficina además de escuchar música, ver vídeos, jugar, estudiar, etc.
La creación del ordenador personal (PC, Personal Computer) vino provocada por la aparición del microprocesador (en la llamada cuarta generación de ordenadores). En 1974, la empresa estadounidense Intel Corporation presentó el modelo de microprocesador 8080. Contenía 4.500 transistores y podía manejar 64k de memoria RAM a través de un bus de datos de 8 bits. 

Altair 8800, primer PC 1975
Altair 8800, primer PC 1975
El 8080 fue el cerebro del primer ordenador personal (PC), el Altair 8800, fabricado por la compañía MITS (Micro Instrumentation Telemetry Systems), promoviendo un gran interés en hogares y pequeños negocios a partir de enero de 1975, cuando apareció publicitada en la revista Popular Electronics y se vendía como un kit. El primer modelo no contaba con monitor ni teclado, tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación. La información era almacenada en cassettes de grabadoras y era visualizada en aparatos de televisión. El primer lenguaje de programación para la máquina fue el Altair BASIC, escrito por William Henry Gates y Paul Allen, quienes inmediatamente después fundarían Microsoft. El Sistema Operativo que utilizaba el Altair 8800 era el [[CP/M (Control Program for Microcomputers).
En 1980 Tim Paterson, programador de SCP (Seattle Computer Products), desarrolló un sistema operativo conocido como 86-DOS (Disk Operating System, sistema operativo de disco). En un principio se le llamó QDOS (Quick and Dirty Operating System, sistema operativo rápido y sucio), se basaba en el CP/M para un procesador Intel 8086. Acabaría siendo comprado por 50.000 dólares por Microsoft, empresa encargada por IBM para la creación de un sistema operativo para su novedoso modelo IBM PC, proyecto que Microsoft no fue capaz de cumplir, por lo que reescribió para tal fin el QDOS, convirtiéndose así en el PC-DOS para los modelos de IBM y MS-DOS para otras marcas a las que suministraría Microsoft el producto. En 1984 eran ya 200 las marcas que habían adquirido una licencia de MS-DOS, lo que supondría el principio del casi-monopolio de Microsoft. IBM, por su parte, acrecentó su liderazgo en el mercado con su PC (Personal Computer, ordenador personal), vendiendo más de 65.000 unidades el primer año y acercando la figura del ordenador a la sociedad y a los hogares con los modelos sucesivos.

Historia de las computadoras. Juegos

Historia de las computadoras
Juegos


La primera generación de juegos de ordenador eran a menudo aventuras de texto o ficción interactiva, en la que el jugador se comunicaba con el ordenador mediante la introducción de comandos a través de un teclado. Una de los primeras aventuras de texto, Adventure, fue desarrollada para la minicomputadora PDP-11 por Will Crowther en 1976, y ampliada por Don Woods en 1977. 

En la década de 1980, los ordenadores personales se habían convertido en lo suficientemente potentes como para ejecutar juegos como Adventure, pero en ese momento, los gráficos estaban empezando a convertirse en un factor importante en los juegos. Más tarde, los juegos combinaron comandos textuales con gráficos básicos, como se vio en los juegos de la SSI Gold Box como Pool of Radiance o Bard's Tale.

Desde finales de los 70 hasta principios de los 80, los juegos fueron desarrollados y distribuidos a través de grupos de aficionados y revistas de juegos como Creative Computing y más tarde Computer Gaming World. Estas publicaciones proporcionaban el código del juego, que podía ser tecleado en un ordenador para jugarse, animando a los lectores a enviar su propio software para participar en concursos. Microchess fue uno de los primeros juegos para microcomputadoras que se vendieron al público. Publicado en 1977 por primera vez, se llegaron a vender más de 50.000 copias de Microchess en cinta de cassette.

Al igual que con los videojuegos de consola de segunda generación de la época, los primeros juegos de ordenador se basaron en los juegos arcade de éxito en ese momento, haciendo ports y clones de juegos de arcade populares. En 1982, los juegos más vendidos para la Atari 400 eran ports de Frogger y Centipede, mientras que el juego más vendido para la Texas Instruments TI-99/4A fue un clon de Space Invaders llamado TI Invaders. Ese mismo año, Pac-Man fue portado a la Atari 800, [18] mientras que Donkey Kong fue autorizado para la Coleco Adam. A finales de 1981, Atari intentó tomar acciones legales en contra de los clones no autorizados, en particular los clones de Pac-Man, a pesar de que algunos de éstos eran anteriores a los derechos exclusivos de Atari para las versiones caseras del juego de Namco. 

Historia de las computadoras. Los componentes

Historia de las computadoras
Los componentes

historia-de-la-computadora- (1)
historia-de-la-computadora- (1)
La computadora es en la actualidad una de las herramientas más usadas a nivel mundial por todo clase de usuarios, y realizan tareas que van más allá del objetivo de cuando fueron desarrolladas. Hoy en día una simple computadora puede ser utilizada tanto como para el simple entretenimiento y las redes sociales hasta para controlar aspectos tan complicados como los misiones espaciales de forma completamente automática.
Tal es la variedad de trabajos en las que una computadora puede ayudar a la humanidad. Sin embargo, son pocas las personas que saben que estos dispositivos no nacieron con Windows, sino que ya llevan siglos entre nosotros, quizás en formas que nada tienen que ver con las actuales, pero no dejan de ser computadoras por ello.
Para que todos podamos conocer más a fondo la historia de las computadoras, en este artículo presentamos una completa cronología desde sus primeros años, hace algunos siglos.

A partir de este punto vamos a conocer con más profundidad la historia de quizás el dispositivo tecnológico que más ha ayudado a evolucionar a la especie humana. De la mano del software las computadoras han permitido realizar cálculos que de otra manera hubieran tardado mucho más tiempo en completarse, asegurando de este modo que los procesos de desarrollo de todas las demás tecnologías se pudieran realizar de manera mucho más rápida, eficiente y a un costo monetario mucho menor.
En el diccionario de la Real Academia Española, la definición para la palabra “Computadora” nos dice que se trata de un “aparato para cálculos matemáticos», y es por ello que podemos englobar con tanta facilidad las diferentes tecnologías de cálculo existentes desde prácticamente los orígenes de la humanidad.
La historia de la computadora, al contrario de lo que muchos pueden imaginar, tiene su inicio hace mucho tiempo atrás, cuando el hombre descubrió que podría hacer cuentas con los dedos, o con otros objetos, tales como piedras o pedazos de madera. Estas cuentas se fueron haciendo cada vez más complicadas conforme la humanidad aprendía, y pronto los hombres se dieron cuenta que necesitarían algún artefacto que les permitirá realizar cálculos más complejos a mayor velocidad.

Historia de las computadoras. Sistemas operativos

Historia de las computadoras
Sistemas operativos

Resultado de imagen para Historia de las computadoras. Sistemas operativos

La informática tal y como se le conoce hoy día, surgió a raíz de la II Guerra Mundial, en la década de los 40. En esos años no existía siquiera el concepto de "Sistema Operativo" y los programadores interactuaban directamente con el hardware de las computadoras trabajando en lenguaje máquina (esto es, en binario, programando únicamente con 0s y 1s). 

El concepto de Sistema Operativo surge en la década de los 50. El primer Sistema Operativo de la historia fue creado en 1956 para un ordenador IBM 704, y básicamente lo único que hacía era comenzar la ejecución de un programa cuando el anterior terminaba. 

En los años 60 se produce una revolución en el campo de los Sistemas Operativos. Aparecen conceptos como sistema multitarea, sistema multiusuario, sistema multiprocesadores y sistema en tiempo real. 

Es en esta década cuando aparece UNIX, la base de la gran mayoría de los Sistemas Operativos que existen hoy en día.

En los años 70 se produce un boom en cuestión de ordenadores personales, acercando estos al público general de manera impensable hasta entonces. Esto hace que se multiplique el desarrollo, creándose el lenguaje de programación C (diseñado específicamente para reescribir por completo el código UNIX). 

Como consecuencia de este crecimiento exponencial de usuarios, la gran mayoría de ellos sin ningún conocimiento sobre lenguajes de bajo o alto nivel, hizo que en los años 80, la prioridad a la hora de diseñar un sistema operativo fuese la facilidad de uso, surgiendo así las primeras interfaces de usuario. 

En los 80 nacieron sistemas como MacOS, MS-DOS, Windows.



Historia de las computadoras. La fibra óptica

Historia de las computadoras. La fibra óptica



Es sabido que la velocidad en el uso de las computadoras es determinante en un mundo cada vez más complejo y competitivo, de ahí la importancia de saber cómo ha ido evolucionando esta velocidad en las computadoras hasta allegar a la fibra óptica.
En efecto, Los antiguos griegos usaban espejos para transmitir información, de modo rudimentario, usando luz solar. En 1792, Claude Chappe diseñó un sistema de telegrafía óptica, que, mediante el uso de un código, torres y espejos distribuidos a lo largo de los 200 km que separan a Lille de París, conseguía transmitir un mensaje en tan solo 16 minutos. 
Aunque en 1820 eran conocidas las ecuaciones por las que se rige la captura de la luz dentro de una placa de cristal lisa, no sería sino 90 años más tarde (1910) cuando estas ecuaciones se aplicaron hacia los llamados cables de vidrio gracias a los trabajos de los físicos Demetrius Hondros y Peter Debye en 1910.
El confinamiento de la luz por refracción, el principio que posibilita la fibra óptica, fue demostrado por Jean-Daniel Colladon y Jacques Babinet en París en los comienzos de la década de 1840. El físico inglés John Tyndall descubrió que la luz podía viajar dentro del agua, curvándose por reflexión interna, y en 1870 presentó sus estudios ante los miembros de la Real Sociedad.
Solamente en 1950 las fibras ópticas comenzaron a interesar a los investigadores, con muchas aplicaciones prácticas que estaban siendo desarrolladas. En 1952, el físico Narinder Singh Kapany, apoyándose en los estudios de John Tyndall, realizó experimentos que condujeron a la invención de la fibra óptica.
Uno de los primeros usos de la fibra óptica fue emplear un haz de fibras para la transmisión de imágenes, que se usó en el endoscopio. Usando la fibra óptica, se consiguió un endoscopio semiflexible, el cual fue patentado por la Universidad de Míchigan en 1956. En este invento se usaron unas nuevas fibras forradas con un material de bajo índice de refracción, ya que antes se impregnaban con aceites o ceras. En esta misma época, se empezaron a utilizar filamentos delgados como el cabello que transportaban luz a distancias cortas, tanto en la industria como en la medicina, de forma que la luz podía llegar a lugares que de otra forma serían inaccesibles. El único problema era que esta luz perdía hasta el 99 % de su intensidad al atravesar distancias de hasta 9 metros de fibra.
Charles K. Kao, en su tesis doctoral de 1956, estimó que las máximas pérdidas que debería tener la fibra óptica, para que resultara práctica en enlaces de comunicaciones, eran de 20 decibelios por kilómetro. 
En 1966, en un comunicado dirigido a la Asociación Británica para el Avance de la Ciencia, los investigadores Charles K. Kao y George Hockham, de los laboratorios Standard Telecommunications, en Inglaterra, afirmaron que se podía disponer de fibras de una transparencia mayor y propusieron el uso de fibras de vidrio y de luz, en lugar de electricidad y conductores metálicos, en la transmisión de mensajes telefónicos. La obtención de tales fibras exigió grandes esfuerzos de los investigadores, ya que las fibras hasta entonces presentaban pérdidas del orden de 100 dB/km, además de una banda pasante estrecha y una enorme fragilidad mecánica. Este estudio constituyó la base para reducir las pérdidas de las señales ópticas que hasta el momento eran muy significativas y no permitían el aprovechamiento de esta tecnología. En un artículo teórico, demostraron que las grandes pérdidas características de las fibras existentes se debían a impurezas diminutas intrínsecas del cristal. Como resultado de este estudio fueron fabricadas nuevas fibras con atenuación de 20 dB/km y una banda pasante de 1 GHz para un largo de 1 km, con la perspectiva de sustituir los cables coaxiales. La utilización de fibras de 100 µm de diámetro, envueltas en fibras de nylon resistente, permitirían la construcción de hilos tan fuertes que no podían romperse con las manos. Hoy ya existen fibras ópticas con atenuaciones tan pequeñas de hasta 1 dB/km, lo que es muchísimo menor a las pérdidas de un cable coaxial.
En 1970, los investigadores Robert Maurer, Donald Keck, Peter Schultz, además de Frank Zimar que trabajaban para Corning Glass, fabricaron la primera fibra óptica aplicando impurezas de titanio en sílice, con cientos de metros de largo con la claridad cristalina que Kao y Hockman habían propuesto, aunque las pérdidas eran de 17 dB/km.
En 1980, las mejores fibras eran tan transparentes que una señal podía atravesar 240 kilómetros de fibra antes de debilitarse hasta ser indetectable. Pero las fibras ópticas con este grado de transparencia no se podían fabricar usando métodos tradicionales. Otro avance se produjo cuando los investigadores se dieron cuenta de que el cristal de sílice puro, sin ninguna impureza de metal que absorbiese luz, solamente se podía fabricar directamente a partir de componentes de vapor, evitando de esta forma la contaminación que inevitablemente resultaba del uso convencional de los crisoles de fundición. La tecnología en desarrollo se basaba principalmente en el conocimiento de la termodinámica química, una ciencia perfeccionada por tres generaciones de químicos desde su adopción original por parte de Willard Gibbs, en el siglo XIX.
También en 1980, AT&T presentó a la Comisión Federal de Comunicaciones de los Estados Unidos un proyecto de un sistema de 978 kilómetros que conectaría las principales ciudades del trayecto de Boston a Washington D. C. Cuatro años después, cuando el sistema comenzó a funcionar, su cable, de menos de 25 centímetros de diámetro, proporcionaba 80 000 canales de voz para conversaciones telefónicas simultáneas. Para entonces, la longitud total de los cables de fibra únicamente en los Estados Unidos alcanzaba 400 000 kilómetros.
El primer enlace transoceánico con fibra óptica fue el TAT-8 que comenzó a operar en 1988, usando un cristal tan transparente que los amplificadores para regenerar las señales débiles se podían colocar a distancias de más de 64 kilómetros. Tres años después, otro cable transatlántico duplicó la capacidad del primero. Desde entonces, se ha empleado fibra óptica en multitud de enlaces transoceánicos o entre ciudades, y paulatinamente se va extendiendo su uso desde las redes troncales de las operadoras hacia los usuarios finales.
Hoy en día, debido a sus mínimas pérdidas de señal y a sus óptimas propiedades de ancho de banda, además de peso y tamaño reducidos la fibra óptica puede ser usada a distancias más largas que el cable de cobre.

EL ROL DE LAS COMPUTADORAS EN LA EDUCACIÓN INTEGRAL



EL ROL DE LAS COMPUTADORAS EN LA EDUCACIÓN INTEGRAL


Resultado de imagen de alumnos con computadoras

La computadora en la educación integral se convierte en una poderosa versátil herramienta que transforma a los alumnos, de receptores pasivos de la información en participantes activos, en un enriquecedor proceso de aprendizaje en el que desempeña un papel primordial la facilidad de relacionar sucesivamente distintos tipos de información, personalizando la educación, al permitir a cada alumno avanzar según su propia capacidad.

No obstante, la aplicación de la computadora en la educación integral no asegura la formación de mejores alumnos y futuros ciudadanos, si entre otros requisitos dichos procesos no van guiado y acompañados por el docente. El último en mención, tiene la responsabilidad de seleccionar con un criterio excelentísimo el contenido que se les brindará a los alumnos a través de esta tecnología. Por sobre todo el docente tendrá la precaución no sólo de examinar cuidadosamente los contenidos de cada material a utilizar para detectar posibles errores, omisiones, ideas o conceptos equívocos, sino que también deberá fomentar entre los alumnos una actitud de atento juicio crítico frente a ello. 

Se debe considerar el uso de la computadora como una herramienta para que el docente y el grupo de alumnos se relacionen para compartir las ideas sustanciales del tema, generando una relación indirecta con el recurso tecnológico, pero creando una relación directa entre todos ellos, funcionando como una herramienta comunicativa de integración global referida al salón de clases.









PRINCIPALES PERIFÉRICOS DE LA COMPUTADORAS

PERIFÉRICOS DE ENTRADA - SALIDA 


Imágenes de los periféricos de entrada
Los periféricos de entrada son aquellos que permiten el ingreso de datos externos a las computadora para su posterior procedimiento por parte del CPU (Unidad de Procesamiento Central). Estos datos provienen de diferentes fuentes, el ser humano es la principal. 
Los periféricos de entrada más habituales son los siguientes:
  1. Teclado.
  2. Micrófono.
  3. Escáner 
  4. Ratón o mouse
  5. Escáner de código de barras
  6. Cámara web
  7. Lápiz óptico
  8. Cámara digital
Imágenes de los periféricos de salida

Los periféricos de salida son aquellos que reciben la información procesada por la CPU y la reproducen, de manera que el usuario pueda percibirla.

   1. Impresora
   2. Fax
   3. Tarjetas de sonido   
   4. Altavoz




Los periféricos de entrada/salida, denominamos también Periféricos mixtos, son una colección de interfaces que utilizan diferentes unidades funcionales de un sistema de procesamiento de información para la comunicación de unas con otras, enviadas a través de las mismas. Las entradas son señales recibidas por la unidad; por otro lado, las de salida son enviadas por esas interfaces 
Imágenes de los periféricos de entrada y salida
Ejemplos de periféricos de E/S
  1. Disco duro
  2. Grabadora y/o lector de CD
  3. Grabadora y/o lector de DVD
  4. Impresora
  5. Memoria flash
  6. Cintas magnéticas
  7. Memoria portátil
  8. Disquete

miércoles, 23 de octubre de 2019

Los mejores antivirus gratuitos para computadoras


Las computadoras se han convertido en una especia de "diario digital" donde guardamos nuestros documentos y datos mas importantes, ya sean de índole personal, escolar o laboral. Debido a esto es necesario proteger nuestra PC ya que podemos ser victimas de un virus que haga perder esa preciada información para siempre. Por suerte, hoy en día existen numerosos antivirus que pueden ser pagados o gratuitos, pero lo que nos compete ahora es informar sobre los mejores antivirus gratuitos para computadoras.

  1. BitDefender Antivirus Free Edition: Presenta un estilo minimalista, lo cual demanda un bajo mantenimiento, no presenta ningún tipo de configuraciones. Sin embargo, escanea tu computadora en segundo plano usando la detección basada en la nube y posteriormente realiza un análisis mas profundo si se encuentra un software malicioso o señales de alerta, ademas bloque URL maliciosas y usan filtros avanzados para advertirte  que te alejes de los sitios que intentaran robarte tu identidad.
mejores antivirus gratuitos para PC

    2. Avast! Free Antivirus 2018: En términos de protección básica, Avast es uno de los mejores programas antivirus posibles. En la actualización mas reciente Avast, este nos ofrece proteccion habitual contra virus y malware, incluido el anti-rootkit y el anti-spyware, el software viene con una gran cantidad de opciones personalizables en la instalación. 
    
    3. ZoneAlarm free Antivirus 2019: Proporciona firewalls y analisis de virus, pero va mas allá al abordar dos problemas de seguridad informática cada vez mayores: el robo de identidad y la perdida de datos. Zone Alarm tambien ofrece su propio servicio de respaldo en la nube.

COMPONENTES DE UNA COMPUTADORA

¿CÓMO ESTÁ COMPUESTA UNA COMPUTADORA?


Una computadora, está compuesta por una serie de partes que la conforman estas se pueden encontrar física y no tangibles. 
A Componentes físicos nos referimos a aquellos dispositivos que se pueden ver y tocar, estos representan a los componentes mecánicos y electrónicos que tienen funciones tales como resguardar, almacenar y procesar datos de distinto tipos de información. Por otro lado, los componentes no tangibles, son aquellos que siguen una serie de instrucciones que controlan a los componentes físicos para que desarrollen una actividad en específico. Dentro de lo que llamamos gabinete, encontramos los diversos componentes de una PC.
Resultado de imagen para componentes de una pcLos distintos componentes que encontramos son: Procesador, el cual es un circuito que descifra y realiza instrucciones; Memoria RAM, la cual almacena datos de manera momentánea según sean los programas que se ejecuten; Disco duro, almacena datos por lapsos extendidos y por último la Unidad de CD o DVD, la cual permite leer y escribir tipos de disco Motherboard, esta es una placa encargada de unir los diferentes componentes de la PC.