COMENTARIO:
lunes, 20 de octubre de 2014
*Sistemas Operativos*
*Antivirus*
*ANTIVIRUS*
Métodos de contagio
Existen dos grandes grupos de
propagación: los virus cuya instalación el usuario, en un momento dado, ejecuta
o acepta de forma inadvertida; y los gusanos, con los que el programa malicioso
actúa replicándose a través de las redes.
En cualquiera de los dos casos, el sistema
operativo infectado comienza a
sufrir una serie de comportamientos anómalos o no previstos. Dichos
comportamientos son los que dan la traza del problema y tienen que permitir la
recuperación del mismo.
Dentro de las contaminaciones más
frecuentes por interacción del usuario están las siguientes:
•
Mensajes que ejecutan
automáticamente programas, como el programa de correo que abre directamente un
archivo adjunto.
•
Ingeniería social,
mensajes como «Ejecute este programa y gane un premio».
•
Entrada de información
en discos de otros usuarios infectados.
•
Instalación de software
que pueda contener uno o varios programas maliciosos.
Seguridad y métodos de protección
Los métodos para contener o reducir
los riesgos asociados a los virus pueden ser los denominados activos o pasivos.
Tipos de vacunas
• Sólo detección: son vacunas que sólo actualizan archivos infectados,
sin embargo, no pueden eliminarlos o desinfectarlos.
• Detección y desinfección: son vacunas que detectan archivos infectados y que
pueden desinfectarlos.
• Detección y aborto de la acción: son vacunas que detectan archivos infectados y
detienen las acciones que causa el virus.
• Comparación por firmas: son vacunas que comparan las firmas de archivos
sospechosos para saber si están infectados.
• Comparación de firmas de archivo: son vacunas que comparan las firmas de los
atributos guardados en tu equipo.
• Invocado por el usuario: son vacunas que se activan instantáneamente con el
usuario.
Invocado por la actividad del sistema: son vacunas que se activan instantáneamente por
la actividad del sistema operativo.
Consideraciones de software
El software es otro de los elementos
clave en la parte de planificación. Se debería tener en cuenta la siguiente
lista de comprobaciones para tu seguridad:
•
Tener el software
indispensable para el funcionamiento de la actividad, nunca menos pero tampoco
más. Tener controlado al personal en cuanto a la instalación de software es una
medida que va implícita. Asimismo, tener controlado el software asegura la
calidad de la procedencia del mismo (no debería permitirse software
pirata o sin garantías). En
todo caso un inventario de software proporciona un método correcto de asegurar
la reinstalación en caso de desastre.
•
Disponer del software de
seguridad adecuado. Cada actividad, forma de trabajo y métodos de conexión a
Internet requieren una medida diferente de aproximación al problema. En
general, las soluciones domésticas, donde únicamente hay un equipo expuesto, no
son las mismas que las soluciones empresariales.
•
Métodos de instalación
rápidos. Para permitir la reinstalación rápida en caso de contingencia.
•
Asegurar licencias.
Determinados softwares imponen métodos de instalación de una vez, que
dificultan la reinstalación rápida de la red. Dichos programas no siempre
tienen alternativas pero ha de buscarse con el fabricante métodos rápidos de
instalación.
•
Buscar alternativas más
seguras. Existe software que es famoso por la cantidad de agujeros de
seguridad que introduce. Es imprescindible conocer si se puede encontrar una
alternativa que proporcione iguales funcionalidades pero permitiendo una
seguridad extra.
Consideraciones de la red
Disponer de una visión clara del
funcionamiento de la red permite poner puntos de verificación de filtrado y
detección ahí donde la incidencia es más claramente identificable. Sin perder
de vista otros puntos de acción es conveniente:
1. Mantener al máximo el número de recursos de red en
modo de sólo lectura. De esta forma se impide que computadoras infectadas los
propaguen.
2. Centralizar los datos. De forma que detectores de
virus en modo batch puedan trabajar durante la noche.
3. Realizar filtrados de firewall de red.
Eliminar los programas que comparten datos, como pueden ser los P2P; Mantener
esta política de forma rigurosa, y con el consentimiento de la gerencia.
4. Reducir los permisos de los usuarios al mínimo, de
modo que sólo permitan el trabajo diario.
5. Controlar y monitorizar el acceso a Internet. Para
poder detectar en fases de recuperación cómo se ha introducido el virus, y así
determinar los pasos a seguir.
Formación del usuario
Esta es la primera barrera de
protección de la red.
Antivirus
Es conveniente disponer de una
licencia activa de antivirus. Dicha licencia se empleará para la generación de
discos de recuperación y emergencia. Sin embargo, no se recomienda en una red
el uso continuo de antivirus.
El motivo radica en la cantidad de
recursos que dichos programas obtienen del sistema, reduciendo el valor de las
inversiones en hardware realizadas. Aunque si los recursos son
suficientes, este extra de seguridad puede ser muy útil.
Sin embargo, los filtros de correos
con detectores de virus son imprescindibles, ya que de esta forma se asegurará
una reducción importante de elecciones de usuarios no entrenados que pueden
poner en riesgo la red.
Firewalls
Filtrar contenidos y puntos de
acceso. Eliminar programas que no estén relacionados con la actividad. Tener
monitorizado los accesos de los usuarios a la red, permite asimismo reducir la
instalación de software que no es necesario o que puede generar riesgo para la
continuidad del negocio. Su significado es barrera de fuego y no permite que
otra persona no autorizada tenga acceso desde otro equipo al tuyo.
Reemplazo de software
Los puntos de entrada en la red la
mayoría de las veces son el correo, las páginas web, y la entrada de ficheros desde discos, o de
computadoras ajenas a la empresa.
Muchas de estas computadoras emplean
programas que pueden ser reemplazados por alternativas más seguras.
Es conveniente llevar un seguimiento
de cómo distribuyen bancos, y externos el software, valorar su utilidad.
¿Quieres saber cual es el mejor
antivirus?
Como cada año, hemos
realizado una comparativa de todos los antivirus de las compañías importantes
de cara al 2014. Tasa de detección, rendimiento del sistema, usabilidad de la
interfaz... todo además con la ayuda de nuestros colaboradores del laboratorio
de test Virus Bulletin, para establecer una clasificación.
Como explicamos en el
artículo, la comparativa de antivirus de Softonic destaca por el análisis de
datos a largo plazo, no un único test aislado. Este año, hemos mezclado los
antivirus gratuitos y los de pago y hemos establecido diferentes premios. Llegados
a este punto, Norton ha salido vencedor en su conjunto en nuestra comparativa
2014. ESET y Kaspersky se han quedado cerca, en el segundo y tercer puesto
respectivamente.
Por otro lado, la gran
decepción de la comparativa ha sido la solución de Microsoft. Windows Defender,
por cierto, instalado por defecto en Windows 8.1, ralentiza el ordenador más de
lo que lo protege.
*Internet*
Martínez Hernández Lucero 1º “B
INTERNET
Internet es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen funcionen como una red lógica única, de
alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció
la primera conexión de computadoras, conocida como Arpanet, entre tres
universidades en California y una en Utah, Estados Unidos.
Uno de los servicios que más éxito
ha tenido en Internet ha sido la World Wide Web (WWW o la Web), a tal punto que es habitual la
confusión entre ambos términos. La WWW es un conjunto de protocolos que
permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un desarrollo
posterior (1990) y utiliza Internet
como medio de transmisión.
Existen, por tanto, muchos otros
servicios y protocolos en Internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de
archivos (FTP y P2P),
las conversaciones en línea (IRC),
la mensajería instantánea y presencia, la transmisión de contenido y
comunicación multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.
Historia
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA)(Defense Advanced
Research Projects Agency) , como respuesta a la necesidad de esta organización
de buscar mejores maneras de usar los computadores de ese entonces, pero
enfrentados al problema de que los principales investigadores y laboratorios
deseaban tener sus propios computadores, lo que no sólo era más costoso, sino
que provocaba una duplicación de esfuerzos y recursos. El verdadero origen de
Internet microsiervos (2005)</ref> Así nace ARPANet (Advanced
Research Projects Agency Network o Red de la Agencia para los Proyectos de
Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una
red inicial de comunicaciones de alta velocidad a la cual fueron integrándose
otras instituciones gubernamentales y redes académicas durante los años 70.
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las
universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y
gracias a los trabajos y estudios anteriores de varios científicos y
organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la
primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue
siendo muy popular. Sin embargo, este no fue el único motivo.
• 1972:
Se realizó la Primera demostración pública de ARPANET, una nueva red de
comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para
que, en 1973, la DARPA iniciara un programa de
investigación sobre posibles técnicas para interconectar redes (orientadas al
tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de
forma "transparente" para las computadoras conectadas. De la
filosofía del proyecto surgió el nombre de "Internet", que se aplicó
al sistema de redes interconectadas mediante los protocolos TCP e IP.
• 1983:
El 1 de enero, ARPANET cambió el
protocolo NCP por TCP/IP. Ese mismo
año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de
proporcionar recursos de investigación a Internet. Por otra parte, se centró la
función de asignación de identificadores en la IANA que, más tarde, delegó
parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.
• 1986:
La NSF comenzó el desarrollo
de NSFNET que se convirtió en la
principal Red en árbol de Internet, complementada después con las redes NSINET
y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en
Europa, tanto públicas como
comerciales, junto con las americanas formaban el esqueleto básico
("backbone") de Internet.
• 1989:
Con la integración de los protocolos OSI en la arquitectura de
Internet, se inició la tendencia actual de permitir no sólo la interconexión de
redes de estructuras dispares, sino también la de facilitar el uso de distintos
protocolos de comunicaciones.
• 2006:
El 3 de enero, Internet alcanzó los
mil cien millones de usuarios. Se prevé que en diez años, la cantidad de
navegantes de la Red aumentará a 2000 millones.
El resultado de todo esto es lo que
experimentamos hoy en día: la transformación de lo que fue una enorme red de
comunicaciones para uso gubernamental, planificada y construida con fondos
estatales, que ha evolucionado en una miríada de redes privadas interconectadas
entre sí. Actualmente la red experimenta cada día la integración de nuevas
redes y usuarios, extendiendo su amplitud y dominio, al tiempo que surgen
nuevos mercados, tecnologías, instituciones y empresas que aprovechan este
nuevo medio, cuyo potencial apenas comenzamos a descubrir.
Enrutamiento y capas de servicio
Los Proveedores de Servicios de
Internet (ISP) conectan a clientes, quienes representan la parte más baja en la
jerarquía de enrutamiento, con otros clientes de otros ISP a través de capas de
red más altas o del mismo nivel. En lo alto de la jerarquía de enrutamiento
están las redes de capa 1, grandes compañías de telecominucaciones que
intercambian tráfico directamente con otras a través de acuerdos de
interconexión. Redes de capa 2 y de más bajo nivel compran tráfico de Internet
de otros proveedores para alcanzar al menos algunas partes del Internet
mundial, aunque también pueden participar en la interconexión. Un ISP puede
usar un único proveedor para la conectividad o implementar multihoming para conseguir redundancia y balanceo de carga. Los puntos neutros tienen las cargas más importantes de tráfico y tienen
conexiones físicas a múltiples ISP.
Los ordenadores y routers utilizan las
tablas de enrutamiento para dirigir los paquetes IP entre las máquinas
conectadas localmente. Las tablas pueden ser construidas de forma manual o
automáticamente a través de DHCP para un equipo individual o un protocolo de
enrutamiento para los routers de sí mismos. En un solo homed situaciones, una
ruta por defecto por lo general apunta hacia "arriba" hacia un ISP
proporciona el transporte. De más alto nivel de los ISP utilizan el Border
Gateway Protocol para solucionar rutas de acceso a un determinado rango de
direcciones IP a través de las complejas conexiones de la Internet global.
Las instituciones académicas, las
grandes empresas, gobiernos y otras organizaciones pueden realizar el mismo
papel que los ISP, con la participación en el intercambio de tráfico y tránsito
de la compra en nombre de sus redes internas de las computadoras individuales.
Las redes de investigación tienden a interconectarse en subredes grandes como
GEANT, GLORIAD, Internet2, y de investigación nacional del Reino Unido y la red
de la educación, Janet. Estos a su vez se construyen alrededor de las redes más
pequeñas (véase la lista de organizaciones académicas de redes informáticas).[
No todas las redes de ordenadores están conectados
a Internet. Por ejemplo, algunos clasificados los sitios web de los Estados
sólo son accesibles desde redes seguras independientes.
Acceso a Internet
Los métodos comunes de acceso a
Internet en los hogares incluyen dial-up, banda ancha fija (a través de cable
coaxial, cables de fibra óptica o cobre), Wi-Fi, televisión vía satélite y
teléfonos celulares con tecnología 3G/4G. Los lugares públicos de uso del
Internet incluyen bibliotecas y cafés de internet, donde los ordenadores con
conexión a Internet están disponibles. También hay puntos de acceso a Internet
en muchos lugares públicos, como salas de los aeropuertos y cafeterías, en
algunos casos sólo para usos de corta duración. Se utilizan varios términos,
como "kiosco de Internet", "terminal de acceso público", y
"teléfonos públicos Web". Muchos hoteles ahora también tienen
terminales de uso público, las cuales por lo general basados en honorarios.
Estos terminales son muy visitada para el uso de varios clientes, como reserva
de entradas, depósito bancario, pago en línea, etc Wi-Fi ofrece acceso
inalámbrico a las redes informáticas, y por lo tanto, puede hacerlo a la propia
Internet. Hotspots les reconocen ese derecho incluye Wi-Fi de los cafés, donde
los aspirantes a ser los usuarios necesitan para llevar a sus propios
dispositivos inalámbricos, tales como un ordenador portátil o PDA. Estos servicios pueden
ser gratis para todos, gratuita para los clientes solamente, o de pago. Un
punto de acceso no tiene por qué estar limitado a un lugar confinado. Un campus
entero o parque, o incluso una ciudad entera puede ser activado.".
Fuente de información
En 2009, un estudio realizado en Estados Unidos indicó que un 56 % de los 3.030 adultos
estadounidenses entrevistados en una encuesta en línea manifestó que si tuviera
que escoger una sola fuente de información, elegiría Internet, mientras que un
21 % preferiría la televisión y tanto los periódicos como la radio sería
la opción de un 10 % de los encuestados. Dicho estudio posiciona a los
medios digitales en una posición privilegiada en cuanto a la búsqueda de
información y refleja un aumento de la credibilidad en dichos medios.
Buscadores
Un buscador se define como el
sistema informático que indexa archivos almacenados en servidores web cuando se
solicita información sobre algún tema. Por medio de palabras clave, se realiza
la exploración y el buscador muestra una lista de direcciones con los temas
relacionados. Existen diferentes formas de clasificar los buscadores según el
proceso de sondeo que realizan. La clasificación más frecuente los divide en:
índices o directorios temáticos, motores de búsqueda y metabuscadores.
Índices o directorios temáticos
Los índices o buscadores temáticos
son sistemas creados con la finalidad de diseñar un catálogo por temas,
definiendo la clasificación por lo que se puede considerar que los contenidos
ofrecidos en estas páginas tienes ya cierto orden y calidad.
La función de este tipo de sistemas
es presentar algunos de los datos de las páginas más importantes, desde el
punto de vista del tema y no de lo que se contiene. Los resultados de la
búsqueda de esta de estos índices pueden ser muy limitados ya que los
directorios temáticos, las bases de datos de direcciones son muy pequeñas,
además de que puede ser posible que el contenido de las páginas no esté
completamente al día.
Motores de búsqueda
Este tipo de buscadores son los de
uso más común, basados en aplicaciones llamadas spiders
("arañas") o robots, que buscan la información con base en las
palabras escritas, haciendo una recopilación sobre el contenido de las páginas
y mostrando como resultado aquéllas que contengan la palabra o frase en alguna
parte del texto.
Meta buscadores
Los metabuscadores son sistemas que
localizan información en los motores de búsqueda más utilizados, realizan un
análisis y seleccionan sus propios resultados. No tienen una base de datos, por
lo que no almacenan páginas web y realizan una búsqueda automática en las bases
de datos de otros buscadores, de los cuales toma un determinado rango de
registros con los resultados más relevantes y así poder tener la información
necesaria.
Trabajo
Con la aparición de Internet y de
las conexiones
de alta velocidad disponibles al público,
Internet ha alterado de manera significativa la manera de trabajar de algunas
personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido
a estas personas mayor flexibilidad en términos de horarios y de localización,
contrariamente a la jornada laboral tradicional, que suele ocupar la mañana y
parte de la tarde, en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un
país puede revisar los libros de una compañía en otro país, en un servidor
situado en un tercer país que sea mantenido remotamente por los especialistas
en un cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual
expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una
cantidad masiva de información y de datos sobre el trabajo que está siendo
recogido actualmente por el colegio de abogados de Harvard.
Internet ha impulsado el fenómeno de
la Globalización y junto con la llamada desmaterialización
de la economía ha dado lugar al
nacimiento de una Nueva Economía caracterizada por la utilización de la red en
todos los procesos de incremento de valor de la empresa
Publicidad
Internet se ha convertido en el
medio más fácilmente medible y de más alto crecimiento en la historia.
Actualmente existen muchas empresas que obtienen dinero de la publicidad en
Internet. Además, existen muchas ventajas que la publicidad interactiva ofrece
tanto para el usuario como para los anunciantes.
Suscribirse a:
Entradas (Atom)































