jueves, 26 de enero de 2012

Computacion

  ¿Qué es Android?
Es un sistema operativo para dispositivos móviles como teléfonos inteligentes y tabletas. Es desarrollado por la Open Handset Alliance, la cual es liderada por Google. Fue desarrollado inicialmente por Android Inc. , una firma comprada por Google en 2005. 
Es el principal producto de la Open Handset Alliance, un conglomerado de fabricantes y desarrolladores de hardware, software y operadores de servicio. Las unidades vendidas de teléfonos inteligentes con Android se ubican en el primer puesto en los Estados Unidos, en el segundo y tercer trimestres de 2010, con una cuota de mercado de 43,6% en el tercer trimestre.

Tiene una gran comunidad de desarrolladores escribiendo aplicaciones para extender la funcionalidad de los dispositivos. A la fecha, se han sobrepasado las 400.000 aplicaciones (de las cuales, dos tercios son gratuitas) disponibles para la tienda de aplicaciones oficial de Android: Android Market, sin tener  en cuenta aplicaciones de otras tiendas no oficiales para Android, como pueden ser la App Store de Amazon o la tienda de aplicaciones Samsung Apps de Samsung. Android Market es la tienda de aplicaciones en línea administrada por Google, aunque existe la posibilidad de obtener software externamente. Los programas están escritos en el lenguaje de programación Java. No obstante, no es un sistema operativo libre de malware, aunque la mayoría de ello es descargado de sitios de terceros.
El anuncio del sistema Android se realizó el 5 de noviembre de 2007 junto con la creación de la Open Handset Alliance, un consorcio de 78 compañías de hardware, software y telecomunicaciones dedicadas al desarrollo de estándares abiertos para dispositivos móviles. Google liberó la mayoría del código de Android bajo la licencia Apache, una licencia libre y de código abierto. 
. Actualmente Android posee aproximadamente el 32,9% de cuota de mercado a escala mundial de los teléfonos inteligentes, por delante de Symbian OS que posee una cuota aproximada del 30,6%. En tercer lugar se sitúa iOS con una cuota de mercado del 16%.

La estructura del sistema operativo Android se compone de aplicaciones que se ejecutan en un framework Java de aplicaciones orientadas a objetos sobre el núcleo de las bibliotecas de Java en una máquina virtual Dalvik con compilación en tiempo de ejecución. Las bibliotecas escritas en lenguaje C incluyen un administrador de interfaz gráfica (surface manager), un framework OpenCore, una base de datos relacional SQLite, una API gráfica OpenGL ES 2.0 3D, un motor de renderizado WebKit, un motor gráfico SGL, SSL y una biblioteca estándar de C Bionic. El sistema operativo está compuesto por 12 millones de líneas de código.

 

¿Qué es Banda Ancha?
Banda Ancha Se conoce como banda ancha en telecomunicaciones a la transmisión de datos simétricos por la cual se envían simultáneamente varias piezas de información, con el objeto de incrementar la velocidad de transmisión efectiva. En ingeniería de redes este término se utiliza también para los métodos en donde dos o más señales comparten un medio de transmisión. Algunas de las variantes de los servicios de Fiber To The Home son de banda ancha. Los routers que operan con velocidades mayores a 100 Mbps también son banda ancha, pues obtienen velocidades de transmisión simétricas. El concepto de Banda Ancha ha evolucionado con los años. La velocidad que proporcionaba RDSI con 128Kb/s dio paso al ADSL con una velocidad de 256 Kb/s. Posteriormente han surgido versiones más modernas y desarrolladas de este último llegando a alcanzar la velocidad de 512Kb/s hasta la actualidad con los Mb/s. Al concepto de Banda Ancha hay que atribuirle otras características además de la velocidad como son la interactividad, digitalización y conexión o capacidad de acceso (función primordial de la Banda Ancha). Patterson ya hablaba de que la conexión de Banda Ancha depende de la red de comunicaciones, de las prestaciones del servicio. En su libro Latency lags bandwidth. Communications of the ACM escrito en 2004 cuenta que el retardo es un aspecto crítico para las prestaciones de un sistema real También se podría definir como la capacidad de transmisión con anchura de banda suficiente para cursar las señales de telefonía, de datos y de imagen. La definición de banda ancha tiene distintas acepciones. Entre todas ellas los puntos en común son la posibilidad de tener una conexión permanente con el ISP, eliminando la necesidad de marcar un número telefónico cada vez que se desea navegar, no está sujeto al pago de servicio local medido (SLM) y entrega una velocidad de bajada de información superior a la obtenida a través del servicio conmutado. Se postula que aún las más lentas son aproximadamente cuatro veces más veloces que los módem análogos, con un promedio de 256 Kbps, permitiendo recibir información, video y audio en tiempo real sin problemas, aunque dependiendo siempre de la congestión natural de Internet. Para algunos, la definición es más simple, y consistiría en la posibilidad de poder recibir gran cantidad de información.  

¿Qué es una dirección IP?

 Dirección IP  es una etiqueta numérica que identifica, de manera lógica y jerárquica, a un interfaz (elemento de comunicación/conexión) de un dispositivo (habitualmente una computadora) dentro de una red que utilice el protocolo IP (Internet Protocol), que corresponde al nivel de red del protocolo TCP/IP. Dicho número no se ha de confundir con la dirección MAC que es un identificador de 48bits para identificar de forma única a la tarjeta de red y no depende del protocolo de conexión utilizado ni de la red. La dirección IP puede cambiar muy a menudo por cambios en la red o porque el dispositivo encargado dentro de la red de asignar las direcciones IP, decida asignar otra IP (por ejemplo, con el protocolo DHCP), a esta forma de asignación de dirección IP se denomina dirección IP dinámica (normalmente abreviado como IP dinámica). Los sitios de Internet que por su naturaleza necesitan estar permanentemente conectados, generalmente tienen una dirección IP fija (comúnmente, IP fija o IP estática), esta, no cambia con el tiempo. Los servidores de correo, DNS, FTP públicos y servidores de páginas web necesariamente deben contar con una dirección IP fija o estática, ya que de esta forma se permite su localización en la red. A través de Internet los ordenadores se conectan entre sí mediante sus respectivas direcciones IP. Sin embargo, a los seres humanos nos es más cómodo utilizar otra notación más fácil de recordar, como los nombres de dominio; la traducción entre unos y otros se resuelve mediante los servidores de nombres de dominio DNS, que a su vez, facilita el trabajo en caso de cambio de dirección IP, ya que basta con actualizar la información en el servidor DNS y el resto de las personas no se enterarán ya que seguirán accediendo por el nombre de dominio  

¿Qué es Tecnología Wireless?
Wireless Tecnología de comunicación inalámbrica que existe desde principios del siglo XX. La comunicación inalámbrica o sin cables es aquella en la que extremos de la comunicación (emisor/receptor) no se encuentran unidos por un medio de propagación físico, sino que se utiliza la modulación de ondas electromagnéticas a través del espacio. En este sentido, los dispositivos físicos sólo están presentes en los emisores y receptores de la señal, entre los cuales encontramos: antenas, computadoras portátiles, PDA, teléfonos móviles, etc. Aspecto histórico y generalidades La comunicación inalámbrica, que se realiza a través de ondas de radiofrecuencia, facilita la operación en lugares donde la computadora no se encuentra en una ubicación fija (almacenes, oficinas de varios pisos, etc.); pero se trata de una tecnología sometida a investigación que en el futuro será utilizada de forma general. La tecnología inalámbrica utiliza ondas de radiofrecuencia de baja potencia y una banda específica, de uso libre o privada para transmitir, entre dispositivos. Estas condiciones de libertad de utilización sin necesidad de licencia, ha propiciado que el número de equipos, especialmente computadoras, que utilizan las ondas para conectarse, a través de redes inalámbricas haya crecido notablemente.

Familia de Procesadores Intel – Core I3, I5, I7 

 Core I3 El 7 de enero de 2010, Intel lanzó el primer procesador Core i3:1 son procesadores de doble núcleo con procesador gráfico integrado, la GPU, denominada Intel HD que funciona a 733 MHz Poseen 4 MB de caché de nivel 2, y controlador de memoria para DDR3 hasta 1333 MHz La función Turbo Boost no está habilitada, pero la tecnología Hyper-Threading se encuentra activada. Características de Core i3:
• Caché de nivel 3 en algunos modelos son 4 MB y 3 MB.
• Potencia de diseño térmico comprendida entre 35 W y 73 W
• Mejorado el rendimiento con operaciones de función eminente.
• Soporte de hasta 32 GB de RAM
• Frecuencia de soporte 3,8 GHz
• Tecnología Gráficos HD Intel
• Controlador de memoria para DDR3 hasta 1333 MHz 2

Core I5 El modelo i5 es de dos núcleos, a diferencia de la versión Quad-Core.
La serie i5, que están orientados a la sección de escritorio y se ubican en la gama media de la empresa. Tiene cuatro núcleos y funciona a una velocidad de 2.66GHz, que se combina con la tecnología Turbo Boost y le permite alcanzar mayor potencia sin necesidad de overclocking. El socket de estos chips será el nuevo LGA 1156, que reemplaza al 775, por lo que deberemos actualizar nuestro motherboard si queremos utilizarlo. I5 tiene soporte para memorias DDR3 en dual-channel, y un cache L3 de 8MB que se combina con la tecnología de Smart Cache para su distribución entre los núcleos. Esta nueva generación de procesadores permite, entre otras cosas, reducir el consumo de energía cuando no se precisa para luego poder ofrecer el máximo desempeño cuando sí se requiera, ventaja sumamente importante para usuarios de notebooks, aseguró Gabriela Gallardo, gerente de Mercado Corporativo para Intel Cono Sur. Características de Core i5:
• Procesador de 2,66 GHz Lynnfield cuádruple núcleo
• Tecnología Hyper-Threading.
• Core i5 Lynnfield tienen una caché L3 de 8 MB, un bus DMI funcionando a 2,5 GT/S
• Soporte para memoria en doble canal DDR3-800/1066/1333
• La tecnología Gráficos HD Intel, un adaptador gráfico que brinda la posibilidad de mirar videos y correr juegos en 3D sin la necesidad de una tarjeta de video adicional.
• Comparación de procesadores 3

Core  I7 Intel una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Están fabricados en 32nm y pertenecen a micro arquitectura Sandy Bridge de Intel y es el sucesor de la familia Lynnfield. El modelo tiene el prefijo 2, alusivo a dicha microarquitectura, conocida también como Intel Core de segunda generación. Características de Core i7:
• La superficie del encapsulado de los procesadores de cuádruple núcleo son aproximadamente de 216 mm2 con 995 millones de transistores.
• Soportan las tecnologías HyperThreading y Turbo Boost 2.0.
• Frecuencias de reloj de serie desde 2,2 GHz hasta 3,4 GHz (Sin Turbo Boost).
• La GPU integrada cuenta con frecuencias desde 650 MHz hasta 850 MHz, y si se activa Turbo Boost hasta 1,35 GHz
• Cierta cantidad de caché de nivel 3 está desactivada en algunos modelos para diferenciar entre segmentos de mercado.
• 64 KB de caché de nivel 1 por núcleo (32 KB L1 Datos + 32 KB L1 instrucciones) y 256 KB caché nivel 2 por núcleo.
• Hasta 8 MB de caché de nivel 3 compartida con un bus en anillo para poder compartirse con el núcleo gráfico.
• Ancho de banda del bus en anillo de 256 bits por ciclo. El bus conecta los núcleos.
• Frecuencia de soporte 3,8 GHz
• Cuentan con un ancho de línea con caché de 64 bytes.
• Controlador de memoria mejorado con un ancho de banda máximo de 25,6 GB/s y soporte para DDR3 a 1600 MHz en doble canal con dos operaciones de carga/almacenamiento por ciclo.
• Potencia de diseño térmico comprendida entre 35 W y 95 W para procesadores destinados a sobremesa; y entre 18 W y 55 W los destinados al segmento portátil.
• Mejorado el rendimiento con operaciones de función trascendente, cifrado AES y SHA-1.
• Soporte de hasta 32 GB de RAM
• Comparación de procesadores
• Gráfico comparativo  

Windows 7 – Windows 8

 Windows 7
  Es la línea de sistemas operativos producida por Microsoft Corporation. Esta versión está diseñada para uso en PC, incluyendo equipos de escritorio en hogares y oficinas, equipos portátiles, tablet, PC, netbooks y equipos media center. El desarrollo de Windows 7 se completó el 22 de julio de 2009, siendo su venta oficial para el 22 de octubre de 2009 junto a su equivalente para servidores Windows Server 2008 R2. A diferencia del gran salto arquitectónico y de características que sufrió su antecesor Windows Vista con respecto a Windows XP, Windows 7 fue concebido como una actualización incremental y focalizada de Vista y su núcleo NT 6.0, lo que permitió mantener cierto grado de compatibilidad con aplicaciones y hardware en los que éste ya era compatible. Sin embargo, entre las metas de desarrollo para Windows 7 se dio importancia a mejorar su interfaz para volverla más accesible al usuario e incluir nuevas características que permitieran hacer tareas de una manera más fácil y rápida, al mismo tiempo que se realizarían esfuerzos para lograr un sistema más ligero, estable y rápido. Diversas presentaciones ofrecidas por la compañía en 2008 se enfocaron en demostrar capacidades multitáctiles, una interfaz rediseñada junto con una nueva barra de tareas y un sistema de redes domésticas simplificado y fácil de usar denominado «Grupo en el hogar», además de importantes mejoras en el rendimiento general del sistema operativo.

Desarrollo de Windows 7: su desarrollo comenzó inmediatamente después del lanzamiento de Windows Vista. El 20 de julio de 2007 se reveló que ese sistema operativo era llamado internamente por Microsoft como la versión “7”. Hasta ese momento la compañía había declarado que Windows 7 tendría soporte para plataformas de 32 bits y 64 bits, aunque la versión para servidores que comparte su mismo núcleo (Windows Server 2008 R2, que sucedería a Windows Server 2008) sería exclusivamente de 64 bits. El 13 de octubre de 2008 fue anunciado “Windows 7”, oficialmente este nuevo sistema operativo. Para el 7 de enero de 2009, la versión beta se publicó para suscriptores de TechNet y MSDN. El 9 de enero se habilitó brevemente al público general mediante descarga directa en la página oficial, pero hubo problemas con los servidores, que obligaron a retirar la posibilidad de descarga hasta horas más tarde, después de solventar el problema añadiendo más servidores. Por esos percances, Microsoft cambió el límite de descargas inicial de 2,5 millones de personas como disculpa por el problema del retraso, y creó un nuevo límite que no sería numérico sino por fecha, hasta el 10 de febrero del 2009. El 5 de mayo se liberó la versión Reléase Candidate en 5 idiomas, entre ellos el español. Estuvo disponible para descargar hasta el 20 de agosto de 2009. El 2 de junio Microsoft anunció que la salida mundial de Windows 7 tendría lugar el 22 de octubre. El 24 de julio, los directivos de Microsoft Steve Ballmer y Steven Sinofsky anunciaron la finalización del proceso de desarrollo con la compilación de la versión RTM, destinada a la distribución de Windows.

Windows 8
En la feria CES del 2012 el CEO de Microsoft, Steve Ballmer, anunció el lanzamiento de una versión beta de Windows 8, además del lanzamiento de la tienda en línea Windows Store a fines de febrero de 2012. Se especula que la versión final se lanzará en septiembre u octubre de 2012. Windows 8 es el nombre en clave de la próxima versión de Microsoft Windows, una familia de sistemas operativos producidos por Microsoft para su uso en computadoras personales, incluidas computadoras de escritorio en casa y de negocios, computadoras portátiles, netbooks, tablet PC, servidores y centros multimedia. Añade soporte para microprocesadores ARM, además de los microprocesadores tradicionales x86 de Intel y AMD. Su interfaz de usuario ha sido modificado para hacerlo más adecuado para la entrada de la pantalla táctil, además del tradicional ratón y el teclado. Microsoft no ha anunciado aún una fecha de envío para Windows 8, aunque algunos de los principales medios de comunicación especulan que podría estar disponible a finales de 2012 Desarrollo de Windows 8: En enero de 2011, en el Consumer Electronics Show (CES), Microsoft anunció que Windows 8 añadirá soporte para Procesadores ARM, además de los tradicionales x86 de Intel.
• El Milestone 2 de 32 bits, build 7927, se filtró a The Pirate Bay el 29 de agosto 2011.
• El Milestone 2 de 32 build 7955, se filtró a BetaArchive el 25 de abril de 2011. Novedades de esta build fue un nuevo inicio de sesión y mucho más.
• El Milestone 3, build 7971, fue lanzada por los socios de Microsoft el 29 de marzo de 2011, pero se mantuvo bajo alta seguridad. Sin embargo, se filtraron algunas imágenes.
• El Milestone 3 de 64-bit, build 7989, fue filtrada a BetaArchive el 18 de junio de 2011, después de que imágenes fueran reveladas el día anterior. Se agregan características como SMS, un teclado virtual nuevo, un nuevo inicio de sistema, transparencia en el tema básico, servicios de geo-localización, Hyper-V 3.0 y PowerShell 3.0 fueron revelados en esta build. Otras funcionalidades nuevas encontradas en las versiones filtradas son una nueva pantalla de bienvenida, un nuevo modelo de aplicación empaquetada llamada AppX, que se basa en Silverlight, así como un ajuste automático al color de la ventana para adaptar con el papel tapiz. También existe una versión de "Inmersión" de Internet Explorer, similar a la versión móvil de Internet Explorer, pero utilizando el escritorio Motor de renderizado Trident. Existe una nueva opción: "Arranque híbrido", que utiliza "Funcionalidad avanzada de hibernación" en el apagado para permitir un inicio más rápido. También se tiene la capacidad de trabajar en un espacio de trabajo portátil instalando Windows 8 en un dispositivo de almacenamiento USB. El 15 de agosto de 2011, Microsoft abrió un nuevo blog llamado "Building Windows 8" para usuarios y desarrolladores. Microsoft dio a conocer el nuevo Windows 8 con nuevas funciones y mejoras el 13 de septiembre de 2011, día de la Conferencia de Desarrolladores. Microsoft también lanzó una Developer Preview (build 8102) de Windows 8 para la comunidad de desarrolladores para descargar y empezar a trabajar. Windows 8 Developer Preview se puede instalar en plataformas de vitalización, incluyendo VMWare Workstation y Oracle VirtualBox. Microsoft ha mostrado un plan de desarrollo en la conferencia BUILD que indica que el próximo Milestone será Beta, Reléase Candidate, RTM, y la disponibilidad general. Según Microsoft, había más de 500.000 descargas de Windows 8 Developer Preview en las primeras 12 horas de su lanzamiento. El 16 de septiembre de 2011, Microsoft anunció que la versión de inmersión de Internet Explorer 10 no funcionará con Adobe Flash o cualquier otros plugins ActiveX. En cambio, utilizará HTML5. La versión de escritorio de IE10 seguirá utilizando los plugins ActiveX, incluido el Flash.  

¿Qué es wifi?
Wi-Fi  
Es un mecanismo de conexión de dispositivos electrónicos de forma inalámbrica. Los dispositivos habilitados con      Wi-Fi, tales como: un ordenador personal, una consola de videojuegos, un smartphone o un reproductor de audio digital, pueden conectarse a Internet a través de un punto de acceso de red inalámbrica. 
Dicho punto de acceso (o hotspot) tiene un alcance de unos 20 metros (65 pies) en interiores y al aire libre una distancia mayor. Pueden cubrir grandes áreas la superposición de múltiples puntos de acceso . Wi-Fi es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11 relacionados a redes inalámbricas de área local. 
Historia 
Esta nueva tecnología surgió por la necesidad de establecer un mecanismo de conexión inalámbrica que fuera compatible entre los distintos aparatos.Buscando esa compatibilidad fue que en 1999 las empresas 3com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies se reunieron para crear la Wireless Ethernet Compability Aliance WECA, actualmente llamada Wi-Fi Alliance.
El objetivo de la misma fue designar una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos. De esta forma, en abril de 2000 WECA certifica la interoperabilidad de equipos según la norma IEEE 802.11b, bajo la marca Wi-Fi. Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden trabajar juntos sin problemas, independientemente del fabricante de cada uno de ellos. Se puede obtener un listado completo de equipos que tienen la certificación Wi-Fi en Alliance - Certified Products. En el año 2002 la asociación WECA estaba formada ya por casi 150 miembros en su totalidad. La familia de estándares 802.11 ha ido naturalmente evolucionando desde su creación, mejorando el rango y velocidad de la transferencia de información, entre otras cosas. La norma IEEE 802.11 fue diseñada para sustituir el equivalente a las capas físicas y MAC de la norma 802.3 (Ethernet). 
Esto quiere decir que en lo único que se diferencia una red Wi-Fi de una red Ethernet es en cómo se transmiten las tramas o paquetes de datos; el resto es idéntico. Por tanto, una red local inalámbrica 802.11 es completamente compatible con todos los servicios de las redes locales (LAN) de cable 802.3 (Ethernet). 
El nombre 
Wi-Fi Aunque se tiende a creer que el término Wi-Fi es una abreviatura de Wireless Fidelity (Fidelidad inalámbrica), equivalente a Hi-Fi, High Fidelity, término frecuente en la grabación de sonido, la WECA contrató a una empresa de publicidad para que le diera un nombre a su estándar, de tal manera que fuera fácil de identificar y recordar. Phil Belanger, miembro fundador de Wi-Fi Alliance que apoyó el nombre Wi-Fi escribió  
Seguridad y fiabilidad 
Uno de los problemas a los cuales se enfrenta actualmente la tecnología Wi-Fi es la progresiva saturación del espectro radioeléctrico, debido a la masificación de usuarios, esto afecta especialmente en las conexiones de larga distancia (mayor de 100 metros). En realidad Wi-Fi está diseñado para conectar ordenadores a la red a distancias reducidas, cualquier uso de mayor alcance está expuesto a un excesivo riesgo de interferencias. Un muy elevado porcentaje de redes son instalados sin tener en consideración la seguridad convirtiendo así sus redes en redes abiertas (o completamente vulnerables a los hackers), sin proteger la información que por ellas circulan. Existen varias alternativas para garantizar la seguridad de estas redes. Las más comunes son la utilización de protocolos de cifrado de datos para los estándares Wi-Fi como el WEP, el WPA, o el WPA2 que se encargan de codificar la información transmitida para proteger su confidencialidad, proporcionados por los propios dispositivos inalámbricos. La mayoría de las formas son las siguientes: 
• WEP, cifra los datos en su red de forma que sólo el destinatario deseado pueda acceder a ellos. Los cifrados de 64 y 128 bits son dos niveles de seguridad WEP. WEP codifica los datos mediante una “clave” de cifrado antes de enviarlo al aire. Este tipo de cifrado no está muy recomendado, debido a las grandes vulnerabilidades que presenta, ya que cualquier cracker puede conseguir sacar la clave. 
• WPA: presenta mejoras como generación dinámica de la clave de acceso. Las claves se insertan como dígitos alfanuméricos.
• IPSEC (túneles IP) en el caso de las VPN y el conjunto de estándares IEEE 802.1X, que permite la autenticación y autorización de usuarios. 
• Filtrado de MAC, de manera que sólo se permite acceso a la red a aquellos dispositivos autorizados. Es lo más recomendable si solo se va a usar con los mismos equipos, y si son pocos.
• Ocultación del punto de acceso: se puede ocultar el punto de acceso (Router) de manera que sea invisible a otros usuarios. 
• El protocolo de seguridad llamado WPA2 (estándar 802.11i), que es una mejora relativa a WPA. En principio es el protocolo de seguridad más seguro para Wi-Fi en este momento. Sin embargo requieren hardware y software compatibles, ya que los antiguos no lo son. Sin embargo, no existe ninguna alternativa totalmente fiable, ya que todas ellas son susceptibles de ser vulneradas.  
Estándares que certifica Wi-Fi 
Existen diversos tipos de Wi-Fi, basado cada uno de ellos en un estándar IEEE 802.11 aprobado. Son los siguientes: 
• Los estándares IEEE 802.11b, IEEE 802.11g e IEEE 802.11n disfrutan de una aceptación internacional debido a que la banda de 2.4 GHz está disponible casi universalmente, con una velocidad de hasta 11 Mbps , 54 Mbps y 300 Mbps, respectivamente.
• En la actualidad ya se maneja también el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y que disfruta de una operatividad con canales relativamente limpios. La banda de 5 GHz ha sido recientemente habilitada y, además, no existen otras tecnologías (Bluetooth, microondas, ZigBee, WUSB) que la estén utilizando, por lo tanto existen muy pocas interferencias. Su alcance es algo menor que el de los estándares que trabajan a 2.4 GHz (aproximadamente un 10%), debido a que la frecuencia es mayor (a mayor frecuencia, menor alcance).
• Existe un primer borrador del estándar IEEE 802.11n que trabaja a 2.4 GHz y a una velocidad de 108 Mbps. Sin embargo, el estándar 802.11g es capaz de alcanzar ya transferencias a 108 Mbps, gracias a diversas técnicas de aceleramiento. Actualmente existen ciertos dispositivos que permiten utilizar esta tecnología, denominados Pre-N. Existen otras tecnologías inalámbricas como Bluetooth que también funcionan a una frecuencia de 2.4 GHz, por lo que puede presentar interferencias con Wi-Fi. Debido a esto, en la versión 1.2 del estándar Bluetooth por ejemplo se actualizó su especificación para que no existieran interferencias con la utilización simultánea de ambas tecnologías, además se necesita tener 40.000 k de velocidad. .
Ventajas y desventajas
Las redes Wi-Fi  poseen una serie de ventajas, entre las cuales podemos destacar:
• Al ser redes inalámbricas, la comodidad que ofrecen es muy superior a las redes cableadas porque cualquiera que tenga acceso a la red puede conectarse desde distintos puntos dentro de un rango suficientemente amplio de espacio.
• Una vez configuradas, las redes Wi-Fi permiten el acceso de múltiples ordenadores sin ningún problema ni gasto en infraestructura, no así en la tecnología por cable. 
• La Wi-Fi Alliance asegura que la compatibilidad entre dispositivos con la marca Wi-Fi es total, con lo que en cualquier parte del mundo podremos utilizar la tecnología Wi-Fi con una compatibilidad total. Pero como red inalámbrica, la tecnología Wi-Fi presenta los problemas intrínsecos de cualquier tecnología inalámbrica. Algunos de ellos son: 
• Una de las desventajas que tiene el sistema Wi-Fi es una menor velocidad en comparación a una conexión con cables, debido a las interferencias y pérdidas de señal que el ambiente puede acarrear.
• La desventaja fundamental de estas redes existe en el campo de la seguridad. Existen algunos programas capaces de capturar paquetes, trabajando con su tarjeta Wi-Fi en modo promiscuo, de forma que puedan calcular la contraseña de la red y de esta forma acceder a ella. Las claves de tipo WEP son relativamente fáciles de conseguir con este sistema. La alianza Wi-Fi arregló estos problemas sacando el estándar WPA y posteriormente WPA2, basados en el grupo de trabajo 802.11i. Las redes protegidas con WPA2 se consideran robustas dado que proporcionan muy buena seguridad. De todos modos muchas compañías no permiten a sus empleados tener una red inalámbrica. Este problema se agrava si consideramos que no se puede controlar el área de cobertura de una conexión, de manera que un receptor se puede conectar desde fuera de la zona de recepción prevista (e.g. desde fuera de una oficina, desde una vivienda colindante). • Hay que señalar que esta tecnología no es compatible con otros tipos de conexiones sin cables como Bluetooth, GPRS, UMTS, etc  
Redes y Tipos de Redes 
  Redes
Una red de computadoras, también llamada red de ordenadores o red informática, es un conjunto de equipos informáticos conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información y recursos y ofrecer servicios. Este término también engloba aquellos medios técnicos que permiten compartir la información La finalidad principal para la creación de una red de computadoras es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el coste general de estas acciones. Un ejemplo es Internet, la cual es una gran red de millones de computadoras ubicadas en distintos puntos del planeta interconectadas básicamente para compartir información y recursos. La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en 7 capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a 4 capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

Clasificación de las redes Por alcance 
• Red de área personal o PAN (personal area network) es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona. 
• Red de área local o LAN (local area network) es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. 
• Una red de área de campus o CAN (campus area network) es una red de computadoras que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, o una base militar. • Una red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica extensa. 
• Las redes de área amplia (wide area network, WAN) son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: Satélites, cables interoceánicos, etc. 
• Una red de área de almacenamiento, en inglés SAN (storage area network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte. 
• Una Red de área local virtual (Virtual LAN, VLAN) es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cuál todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física.
• Red irregular es un sistema de cables y buses que se conectan a través de un módem, y que da como resultado la conexión de una o más computadoras. Esta red es parecida a la mixta, solo que no sigue los parámetros presentados en ella. Muchos de estos casos son muy usados en la mayoría de las redes. Por tipo de conexión 
Medios guiados 
• El cable coaxial se utiliza para transportar señales eléctricas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo, encargado de llevar la información, y uno exterior, de aspecto tubular, llamado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes. 
• El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. 
• La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. 

Medios no guiados 
• Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas estaciones de la red.
• Red por infrarrojos Las redes por infrarrojos nos permiten la comunicación entre dos nodos, usando una serie de leds infrarrojos para ello. Se trata de emisores/receptores de las ondas infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es escasa su utilización a gran escala. 
• Red por microondas Una red por microondas es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. El protocolo más frecuente es el IEEE 802.11b y transmite a 2.4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo). Otras redes utilizan el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.11a
 
Por relación funcional
• Cliente-servidor es una arquitectura que consiste básicamente en un cliente que realiza peticiones a otro programa (el servidor) que le da respuesta.
• Peer-to-peer es aquella red de computadoras en la que todos o algunos aspectos funcionan sin clientes ni servidores fijos, sino una serie de nodos que se comportan como iguales entre sí.  

Por tecnología
• Red Point-To-Point es aquella en la que existe multitud de conexiones entre parejas individuales de máquinas. Este tipo de red requiere, en algunos casos, máquinas intermedias (routers) que establezcan rutas para que puedan transmitirse paquetes de datos. 
• Red Broadcast se caracteriza por transmitir datos por un sólo canal de comunicación que comparten todas las máquinas de la red. En este caso, el paquete enviado es recibido por todas las máquinas de la red pero únicamente la destinataria puede procesarlo.
 
Por topología 
• La red en bus se caracteriza por tener un único canal de comunicaciones (denominado bus, troncal o backbone) al cual se conectan los diferentes dispositivos. 
• En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera. 
• En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.
• En una red en malla cada nodo está conectado a todos los otros. 
• En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. 
• En una red mixta se da cualquier combinación de las anteriores 

Por la direccionalidad de los datos 
• Simplex o unidireccional: un equipo terminal de datos transmite y otro recibe. 
• Half-dúplex o bidireccional: sólo un equipo transmite a la vez. También se llama semidúplex.
• Full-dúplex: ambos pueden transmitir y recibir a la vez una misma información. 

Por grado de autentificación 
 • Red privada: una red privada se definiría como una red que puede usarla solo algunas personas y que están configuradas con clave de acceso personal. 
• Red de acceso público: una red pública se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal. Es una red de computadoras interconectados, capaz de compartir información y que permite comunicar a usuarios sin importar su ubicación geográfica. 

Por grado de difusión
• Una intranet es una red de computadoras que utiliza alguna tecnología de red para usos comerciales, educativos o de otra índole de forma privada, esto es, que no comparte sus recursos o su información con redes ilegítimas.
• Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de alcance mundial. 
Por servicio o función 
• Una red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro.
• Una red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje.
• Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta  
¿Qué es VPN? 
Una red privada virtual, RPV, o VPN de las siglas en inglés de Virtual Prívate Network, es una tecnología de red que permite una extensión de la red local sobre una red pública o no controlada, como por ejemplo Internet. Ejemplos comunes son la posibilidad de conectar dos o más sucursales de una empresa utilizando como vínculo Internet, permitir a los miembros del equipo de soporte técnico la conexión desde su casa al centro de cómputo, o que un usuario pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un hotel. Todo ello utilizando la infraestructura de Internet. 

Características básicas de la seguridad 
 Para hacerlo posible de manera segura es necesario proporcionar los medios para garantizar la autentificación, integridad de toda la comunicación: 
• Autentificación y autorización: ¿Quién está del otro lado? Usuario/equipo y qué nivel de acceso debe tener. 
• Integridad: de que los datos enviados no han sido alterados. Para ello se utiliza funciones de Hash. Los algoritmos de hash más comunes son los Message Digest (MD2 y MD5) y el Secure Hash Algorithm (SHA).
• Confidencialidad: Dado que sólo puede ser interpretada por los destinatarios de la misma. Se hace uso de algoritmos de cifrado como Data Encryption Standard (DES), Triple DES (3DES) y Advanced Encryption Standard (AES). 
• No repudio: es decir, un mensaje tiene que ir firmado, y el que lo firma no puede negar que el mensaje lo envió él o ella.  

Requerimientos básicos
• Identificación de usuario: las VPN deben verificar la identidad de los usuarios y restringir su acceso a aquellos que no se encuentren autorizados. 
• Codificación de datos: los datos que se van a transmitir a través de la red pública (Internet), antes deben ser cifrados, para que así no puedan ser leídos. Esta tarea se realiza con algoritmos de cifrado como DES o 3DES que sólo pueden ser leídos por el emisor y receptor.
• Administración de claves: las VPN deben actualizar las claves de cifrado para los usuarios. 
• Nuevo algoritmo de seguridad SEAL.
Tipos de VPN 
Básicamente existen tres arquitecturas de conexión VPN:
 
VPN de acceso remoto
Es quizás el modelo más usado actualmente, y consiste en usuarios o proveedores que se conectan con la empresa desde sitios remotos (oficinas comerciales, domicilios, hoteles, aviones preparados, etcétera) utilizando Internet como vínculo de acceso. Una vez autenticados tienen un nivel de acceso muy similar al que tienen en la red local de la empresa. Muchas empresas han reemplazado con esta tecnología su infraestructura dial-up (módems y líneas telefónicas). 

VPN punto a punto 
Este esquema se utiliza para conectar oficinas remotas con la sede central de la organización. El servidor VPN, que posee un vínculo permanente a Internet, acepta las conexiones vía Internet provenientes de los sitios y establece el túnel VPN. Los servidores de las sucursales se conectan a Internet utilizando los servicios de su proveedor local de Internet, típicamente mediante conexiones de banda ancha. Esto permite eliminar los costosos vínculos punto a punto tradicionales (realizados comúnmente mediante conexiones de cable físicas entre los nodos), sobre todo en las comunicaciones internacionales. 

Tunneling:
La técnica de tunneling consiste en encapsular un protocolo de red sobre otro (protocolo de red encapsulador) creando un túnel dentro de una red de computadoras.
El establecimiento de dicho túnel se implementa incluyendo un PDU determinada dentro de otra PDU con el objetivo de transmitirla desde un extremo al otro del túnel sin que sea necesaria una interpretación intermedia de la PDU encapsulada. De esta manera se encaminan los paquetes de datos sobre nodos intermedios que son incapaces de ver en claro el contenido de dichos paquetes. El túnel queda definido por los puntos extremos y el protocolo de comunicación empleado, que entre otros, podría ser SSH. 
VPN over LAN:
Este esquema es el menos difundido pero uno de los más poderosos para utilizar dentro de la empresa. Es una variante del tipo "acceso remoto" pero, en vez de utilizar Internet como medio de conexión, emplea la misma red de área local (LAN) de la empresa. Sirve para aislar zonas y servicios de la red interna. Esta capacidad lo hace muy conveniente para mejorar las prestaciones de seguridad de las redes inalámbricas (WiFi).

Diferencias entre INTEL y AMD 
1. AMD (Advanced Micro Devices) se fundó en 1.969 en Sunnyvale (California). Es la segunda empresa productora de microprocesadores para ordenadores, por detrás de INTEL.
2. En 1.995 saca al mercado la serie K (el K5), que es el primer microprocesador desarrollado íntegramente por AMD, para competir con los Pentium de INTEL.
3. Una cuestión muy importante para considerar el rendimiento de los AMD es que no son compatibles con los chipset de INTEL. Esto hizo que al principio dieran muchos problemas (sobre todo los K5) tanto de rendimiento como de fiabilidad, dependiendo sobre todo de la calidad de la placa base utilizada.
4. Tanto AMD como INTEL tienen una gama lo suficientemente amplia como para satisfacer cualquier necesidad. Desde procesadores de bajo costo y un solo núcleo, aunque compatibles en ambos casos con 64bits y velocidades de más de 3Ghz (Sempron de AMD y Celeron D en el caso de INTEL) hasta procesadores de doble núcleo y procesadores para servidores de doble núcleo y cuádruple nucleo (AMD Opteron e INTEL Xeon), pasando por la gama específica de bajo consumo para portátiles (Turion en AMD y serie M o Mobile en INTEL). En este tutorial nos vamos a centrar en los microprocesadores para ordenadores de sobremesa.
5. La principal característica de los procesadores AMD de un solo núcleo es que, gracias a su tecnología, consigue unos rendimientos similares a los de INTEL, pero con una velocidad de reloj bastante menor y con una memoria caché también menor. La proporción en el rendimiento y la velocidad de reloj esta aprox. en 1:1.60.
6. En velocidad de acceso a la RAM y en ancho de banda siguen siendo bastante superiores. En los procesadores del tipo Dual Core, AMD se ve penalizada por su menor memoria caché, sobre todo en aplicaciones que hacen mucho uso de esta. 
7. Los INTEL son procesadores muy rápidos y con bastante memoria caché (generalmente el doble que los AMD). 
8. INTEL siempre ha nombrado a sus micros por la velocidad de reloj, pero últimamente ha abandonado esta práctica para nombrarlos por sus respectivas claves, lo que hace aun más dificil su identificación.
9. Los procesadores INTEL actuales van todos sobre socket LGA775 y soportan tanto memorias DDR como DDR2. A este respecto hay que recordar que mientras que en Intel la memoria la gestiona el NorthBridge, en AMD es el propio procesador el que la gestiona. De ahí que Intel soporte varios tipos de memoria (en realidad no depende del procesador, como es el caso de AMD, sino de la placa base). 
10. INTEL es superior a AMD, más que nada por la mayor caché de los procesadores INTEL, superando AMD a INTEL (E6600) en procesos CAD y procesos con muy poco requerimiento de caché.


antivirusANTIVIRUS
los antivirus son programas cuyo objetivo es detectar y eliminar virus informáticos. Nacieron durante la década de 1980.
Con el transcurso del tiempo, la aparición de sistemas operativos más avanzados e Internet, ha hecho que los antivirus hayan evolucionado hacia programas más avanzados que no sólo buscan detectar virus informáticos, sino bloquearlos, desinfectarlos y prevenir una infección de los mismos, y actualmente ya son capaces de reconocer otros tipos de malware, como spyware, rootkits, etc.

TIPOS DE ANTIVIRUS  


Cortafuegos (Firewall)
Programa que funciona como muro de defensa, bloqueando el acceso a un sistema en particular.
Se utilizan principalmente en computadoras con conexión a una red, fundamentalmente Internet. El programa controla todo el tráfico de entrada y salida, bloqueando cualquier actividad sospechosa e informando adecuadamente de cada suceso.

Antiespías (Antispyware) 

Aplicación que busca, detecta y elimina programas espías (spyware) que se instalan ocultamente en el ordenador. 

Los antiespías pueden instalarse de manera separada o integrado con paquete de seguridad (que incluye antivirus, cortafuegos, etc).

Antipop-ups

Utilidad que se encarga de detectar y evitar que se ejecuten las ventanas pop-ups cuando navegas por la web. Muchas veces los pop-ups apuntan a contenidos pornográficos o páginas infectadas.
Algunos navegadores web como Mozilla Firefox o Internet Explorer 7 cuentan con un sistema antipop-up integrado.

Antispam

Aplicación o herramienta que detecta y elimina el spam y los correos no deseados que circulan vía email.
Funcionan mediante filtros de correo que permiten detectar los emails no deseados. Estos filtros son totalmente personalizables.


MARCAS DE ANTIVIRUS 
Los antivirus gratuitos que cumplen los 3 requisitos son:
AVG antivirus free edition
Avira Antivir Personal Edition
AVAST home (en español)
Comodo antivirus
PC Tools AntiVirus Edición Gratuita (en español)
Moon Secure Antivirus
Rising Antivirus free edition
  Otros antivirus de pago recomendados (en orden alfabético) son:
Avast Professional
AVG Professional
Bit defender
F-Secure
Kaspersky
Mcafee
Microworld
NOD32
Norton
Panda
PER antivirus
Trend micro
Viruskeeper
Zone Alarm antivirus 

También hay que recordar que cada marca de antivirus suele tener varias versiones que agregan una o más funcionalidades.



Diferencias entres 32bits y 64bits 

En principio significa que el sistema es capaz de de desplazar el doble de información por ciclo de reloj que en un sistema de 32bits. OJO, no que ese desplazamiento sea más rápido, sino que se desplazan más datos Evidentemente, lo primero puede implicar lo segundo en determinadas circunstancias, pero no siempre.También implica un aumento en las direcciones de memoria, lo que hace que se supere el límite que tienen los sistemas de 32bits, establecido en 4GB. La capacidad de direccionamiento de memoria de un sistema de 64bits es de aproximadamente 16 exabytes.

Para un usuario doméstico son muy pocas las ocasiones en las que realmente va a necesitar más de 3.5GB 
de RAM. Por otra parte, las versiones superiores de Windows Vista, aunque no dejan disponibles para el usuario más de 3.5GB (aproximadamente), sí que aprovecha ese resto de memoria, desplazando hacia esa zona unaparte de lo que antes se ejecutaba en la zona disponible para el sistema
Hay que aclarar que no solo existe esta limitación por parte del sistema operativo. Son muchas la
placas base que cuando se instala el máximo de RAM soportada (4GB o más) es la propia BIOS de la placa base la que impone una restricción de aproximadamente el 10% de la capacidad total de la memoria.
En cuanto a la memoria, si bien es cierto que vamos a poder utilizar los 4GB de memoria íntegramente,
 también es ciertos que las direcciones de memoria son mayores, por lo que la misma información nos va a ocupar más espacio, lo que quiere decir que vamos a tener un incremento en la memoria utilizable,pero no un incremento igual en los datos reales que van a caber en ella.
Otra cosa seria si hablamos de más de 4GB de RAM.

Donde sí que vamos a encontrar una mejora real es en programas de edición multimedia (y ojo, digo edición, no ejecución), pero esta mejora la vamos a notar si instalamos más memoria RAM, no
 con sólo 4GB (8GB en adelante).

Las operaciones de coma flotante también tienen un aumento significativo, así como el conjunto de
 instrucciones de diferentes tipos soportados.

Las ventajas son muchas y en muchos apartados, no solo en lo referente a la memoria.

Pero aquí surge la pregunta del millón: ¿Es realmente la opción de un sistema operativo
 (sobre todo Windows) de 64bits para el usuario doméstico?
Bueno, pendientes del desarrollo que sufra el software en los próximos años, y ateniéndonos a lo que 
actualmente hay en el mercado, vamos a tratar de dar respuesta a esa pregunta.

En principio, a pesar de las mejoras en el rendimiento que supone un sistema operativo de 64bits, la respuesta
 es que, salvo que realmente necesitemos una memoria RAM por encima de los 3.5GB (que es lo máximo que deja para el usuario los sistemas de 32bits, salvo excepciones que comentaremos más adelante), la  respuesta es que no, ya que los inconvenientes que se puede encontrar son superiores a las ventajas obtenidas.

En primer lugar vamos a ver que ventajas tienen las versiones de 64 bits.
La principal de todas es que las versiones de 64 bits suportan mucha más memoria (tanto RAM como virtual) 
que las versiones de 32 bits.
Todos los sistemas operativos de 32 bits tienen un límite en la memoria RAM de 4Gb (que además, en el caso
 de Windows, no suelen aprovecharse completos). Esto en realidad para uso doméstico no es un gran obstáculo, ya que no es habitual instalar esa cantidad de memoria.
Hay algunos programas desarrollados para 64 bits, pero son programas profesionales que un usuario 
doméstico no va a utilizar normalmente.
Las versiones de 64 bits no tienen ese límite, por lo que podemos instalar bastante más memoria.
La cantidad máxima de RAM soportada por las versiones de 64 bits de Windows son las siguientes:
Windows XP Profesional 64 bits.- 16Gb de memoria RAM.
Windows Vista Home Basic 64 bits.- 8Gb de memoria RAM.
Windows Vista Home Premiun 64 bits.- 16Gb de memoria RAM.
Windows Vista (Resto de versiones) de 64 bits.- - 128Gb de memoria RAM.
Como podemos ver, las cantidades de RAM son bastante mayores.
Además de esta ventaja en la RAM, los sistemas operativos de 64 bits son algo más rápidos que los de
 32 bits, más estables y más seguros.   
La computación en la nube 
concepto conocido también bajo los términos servicios en la nube, informática en la nube, nube de cómputo o nube de conceptos, del ingles cloud computing, es un paradigma que permite ofrecer servicios de computación a través de Interne 
 
beneficios

  • Integración probada de servicios Red. Por su naturaleza, la tecnología de cloud computing se puede integrar con mucha mayor facilidad y rapidez con el resto de sus aplicaciones empresariales (tanto software tradicional como Cloud Computing basado en infraestructuras), ya sean desarrolladas de manera interna o externa.
  • Prestación de servicios a nivel mundial. Las infraestructuras de cloud computing proporcionan mayor capacidad de adaptación, recuperación de desastres completa y reducción al mínimo de los tiempos de inactividad.
  • Una infraestructura 100% de cloud computing permite al proveedor de contenidos o servicios en la nube prescindir de instalar cualquier tipo de hardware, ya que éste es provisto por el proveedor de la infraestructura o la plataforma en la nube. La belleza de la tecnología de cloud computing es su simplicidad… y el hecho de que requiera mucha menor inversión para empezar a trabajar.
  • Implementación más rápida y con menos riesgos. Podrá empezar a trabajar muy rápidamente gracias a una infraestructura de cloud computing. No tendrá que volver a esperar meses o años e invertir grandes cantidades de dinero antes de que un usuario inicie sesión en su nueva solución. Sus aplicaciones en tecnología de cloud computing estarán disponibles en cuestión de días o horas en lugar de semanas o meses, incluso con un nivel considerable de personalización o integración.
  • Actualizaciones automáticas que no afectan negativamente a los recursos de TI. Si actualizamos a la última versión de la aplicación, nos veremos obligados a dedicar tiempo y recursos (que no tenemos) a volver a crear nuestras personalizaciones e integraciones. La tecnología de cloud computing no le obliga a decidir entre actualizar y conservar su trabajo, porque esas personalizaciones e integraciones se conservan automáticamente durante la actualización.
  • Contribuye al uso eficiente de la energía. En este caso, a la energía requerida para el funcionamiento de la infraestructura. En los datacenters tradicionales, los servidores consumen mucha más energía de la requerida realmente. En cambio, en las nubes, la energía consumida es sólo la necesaria, reduciendo notablemente el desperdicio.

Desventajas

  • La centralización de las aplicaciones y el almacenamiento de los datos origina una interdependencia de los proveedores de servicios.
  • La disponibilidad de las aplicaciones está ligada a la disponibilidad de acceso ainternet
  • Los datos "sensibles" del negocio no residen en las instalaciones de las empresas, lo que podría generar un contexto de alta vulnerabilidad para la sustracción o robo de información.
  • La confiabilidad de los servicios depende de la "salud" tecnológica y financiera de los proveedores de servicios en nube. Empresas emergentes o alianzas entre empresas podrían crear un ambiente propicio para el monopolio y el crecimiento exagerado en los servicios.
  • La disponibilidad de servicios altamente especializados podría tardar meses o incluso años para que sean factibles de ser desplegados en la red.
  • La madurez funcional de las aplicaciones hace que continuamente estén modificando sus interfaces, por lo cual la curva de aprendizaje en empresas de orientación no tecnológica tenga unas pendientes significativas, así como su consumo automático por aplicaciones.
  • Seguridad. La información de la empresa debe recorrer diferentes nodos para llegar a su destino, cada uno de ellos (y sus canales) son un foco de inseguridad. Si se utilizan protocolos seguros, https por ejemplo, la velocidad total disminuye debido a la sobrecarga que estos requieren.
  • Escalabilidad a largo plazo. A medida que más usuarios empiecen a compartir la infraestructura de la nube, la sobrecarga en los servidores de los proveedores aumentará, si la empresa no posee un esquema de crecimiento óptimo puede llevar a degradaciones en el servicio o jiitter altos.

Tipos de nubes

  • Las nubes publicas se manejan por terceras partes, y los trabajos de muchos clientes diferentes pueden estar mezclados en los servidores, los sistemas de almacenamiento y otras infraestructuras de la nube. Los usuarios finales no conocen qué trabajos de otros clientes pueden estar corriendo en el mismo servidor, red, discos como los suyos propios.
  • Las nubes privadas son una buena opción para las compañías que necesitan alta protección de datos y ediciones a nivel de servicio. Las nubes privadas están en una infraestructura en-demanda manejada por un solo cliente que controla qué aplicaciones debe correr y dónde. Son propietarios del servidor, red, y disco y pueden decidir qué usuarios están autorizados a utilizar la infraestructura.
  • Las nubes híbridas combinan los modelos de nubes públicas y privadas. Usted es propietario de unas partes y comparte otras, aunque de una manera controlada. Las nubes híbridas ofrecen la promesa del escalado aprovisionada externamente, en-demanda, pero añaden la complejidad de determinar cómo distribuir las aplicaciones a través de estos ambientes diferentes. Las empresas pueden sentir cierta atracción por la promesa de una nube híbrida, pero esta opción, al menos inicialmente, estará probablemente reservada a aplicaciones simples sin condicionantes, que no requieran de ninguna sincronización o necesiten bases de datos complejas