Unite al grupo

Grupos de Google
Suscribirte a webandbeer
Correo electrónico:
Consultar este grupo

sábado, 18 de octubre de 2008

Introducción a DNS

Ayer, buscando una guía de configuración de bind, me encontré con este artículo que explica las nociones fundamentales sobre qué es un DNS y cómo funciona.

Me pareció muy bueno y bastante completo, así que lo comparto. A menudo noto que los programadores que trabajan en desarrollo web (y en algunos casos me incluyo), desconocen los protocolos que subyacen a sus tareas más cotidianas (HTTP, FTP, SSL, SSH, DNS, etc.) y esto dificulta muchas veces comprender lo que están haciendo o encontrar las razones de un problema específico. De la misma forma en que estoy convencido que para programar en PHP hay que tener alguna noción de C, para conocer "lo que hay abajo", creo que para laburar en desarrollo web hay que conocer estos protocolos.

Sin más preámbulos dejo el link: ¿Cómo funciona el DNS? según Javier Smaldone.

miércoles, 17 de septiembre de 2008

chistes de programadores

Nuestro amigo Tio Oscar nos pasa estos chistes como para relajarnos un rato.



Hiban 3 ingenieros en un auto, un ingeniero quimico, otro electronico y otro
de Microsoft, derrepente el auto queda detenido en el medio de la ruta sin
dar señales de vida, el ingeniero electronico sugiere: Vamos a hacer esto,
desmantelamos toda la instalacion electrica de coche, y vamos revisando las
partes modularmente para ver si no es un problema electrico, a lo que el
ingeniero químico sugiere: Yo creo que es un problema de conbustible,
podemos desmantelar la parte mecanica y mientras tanto medir la
dencidad y la propiedad de combustion de la nafta, a lo que los 2 se
pusieron a discutir, uno decia que era la parte electrica, el otro que
era el combustible, y asi muientras el ingeniero de microsoft
escuchaba, cansados de discutir le preguntan a este que se suponia era
el mas preparado para resolver problemas, a lo que este les dice que
tiene la solucion para estos casos: Hagamos esto; primero cerramos
todas las ventanas, luego salimos, luego volvemos a entrar, abrimos
nuevamentes las ventanas y de seguro todo funcionará de nuevo.


Dos programadores se encuentran en el campus de la facultad de
ingenieria, uno con una bicicleta muy copada, a lo que el otro le
pregunta de donde la habia sacado, el le responde: Era tarde y estaba
caminando de una reunion de Quake III a mi casa cuando aparecio mi
vecina la modelo, tiro la bicicleta a un lado, se saco la ropa y lo
tiro al otro y me dijo, toma de mi lo que quieras!... A lo que el otro
le responde: Buena eleccion, la ropa de seguro no te quedaba.


Un hombre se compra un globo aerostatico, facinado se le va la mano
con el fuego y se pierde, sin saber la direccion del globo y en el
medio del campo derrepente ve a un hombre en bisicleta, baja un poco
con el globo y le pregunta;

-Disculpe, sabe donde me encuentro?-
-Esta en un globo aerostatico a unos 10M del piso con un rumbo de unos
20kms/h hacia el suroeste.
- es usted programador no?, a lo que le responde;
- si, como se dio cuenta?,
- Porque toda la informacion que me dio es tecnicamente correcta, pero
no me sirve de nada
- Y usted es Jefe de una empresa de programacion no?
- Si, y usted como se dio cuenta?
- Por que no sabe a donde va, ni donde esta, pero ahora me hecha la culpa a mi.


Habia 3 ingenieros en un baño publico, uno que trabajaba
desarrollando en Mac, otro en Linux y otro en Windows.
Primero termina el de windows, bien arreglado, de traje y corbata, va
al lavamanos y usam mucha agua y mucho jabon para lavarse y acota "Los
que hacemos las cosa en Windows, las hacemos bien", el mac'ero
termina, se lava con poca agua, poco jabon, y usa solo una esquina de
la toalla y acota: "Los mac'eros no solo lo hacemos bien, sino que
optimizandolo bien, y el linuxero termina, se dirije a la puerta y les
dice "Los linuxeros no nos meamos las manos..."


Un chabon va a una tienda de electrodomesticos y le dice al vendedor,
Buenas quieria un lavarropas pequeño pero que soporte mucha carga,
que pueda lavar desde una media a toda la ropa de un equipo de futbol
siempre utilizando lo sumamente necesario para cada cada caso, que
venga con los planos y especificaciones de cada componente y
obviamente que sea gratis, claro, el transporte obviamente lo pongo
yo.
El tipo de la tienda lo mira, y enojado le dice, no, no tenemos nada
asi, por favor vallace.. el vendedor va a tomarse un descanzo a donde
estan los otros vendedores y al verlo llegar enojados le pregunta; que
paso luis?..
- Otro linuxero mas!!! otro linuxero!!!

Que tienen en comun un Hacker con un Abogado?
- Que los 2 se la pasan buscando errores en el codigo

viernes, 12 de septiembre de 2008

bug en svn

Estando trabajando con SVN, intente agregar una carpeta con archivos, en la cual habia un simpatico archivo llamado ---index.old.php


Resultados, paso a mostrarlos:


[root@developers /usr/local/www/depaginas.com]# svn add *
svn: invalid option: ---index.old.php
Type 'svn help' for usage.
[root@developers /usr/local/www/depaginas.com]#



En fin, me parece impresentable.

viernes, 5 de septiembre de 2008

TIps de SEO por profesionales.

SEO por Web&Beer

Gracias a la inquietud de saber un poco mas del tema, la semana pasada envie un mensaje a la lista, para ver si alguien me daba una mano con algun cosejo, para mejorar el SEO en mis sitios.

En resumen, aca esta todo lo que consegui

- Nombre del site, despues del verdaero title, ejem: "articulo sobre amapolas | pepe.com";
- h1, h2 , h3 ... bien puestos, en lo posible igual al title
- Keywors y description recomiendo que sean igual al titulo, mas una breve descripcion del contenido
- El url rewrite en base al titulo es mejor, ej: articulo-sobre-amapolas.html
- En lo posible, el "header" del site (contenido html repetitivo despues del body) que este semanticamente despues del contenido, y sin CSS tu documento tiene que quedar perfecto (bien maquetado digamos).
- Los menues dentro de listas, ya que google indexa con el tiempo esos links como "directorios" de contenido.
- Arma un sitemap dinamico, con php, y subido a google webmaster
- El robot.txt con que le indiques que indexe todo basta y sobra
- Si le pones google analytics tu site de indexa mucho mas rapido
- URLs con páginas .html las trata un poco mejor Google.
- El posicionamiento, por lo general, se hace eligiendo una/s palabra/s clave/s por página. Esa palabra o frase clave es la que vas a querer enfatizar a lo largo de todo el documento con las cosas que dijo Cesar, poniéndolo en el título, en los h1,h2,h3, etc., en negrita ( strong ) a lo largo del texto, etc. Es fundamental elegir bien esas palabras para obtener buenos resultados.
- La palabra o frase clave debe estar al principio y al final del documento (en el title, a principio del body pero también cerca del body en algún footer o algo así).
- La densidad de las palabras claves (es decir la cantidad de veces que aparece una palabra o frase en todo el documento, en relación con las otras palabras) no debería superar el 6 o 7%. Más de eso puede ser penalizable.
- Evitar a toda costa redirecciones de javascript. Siempre que sea necesario hacer redirecciones HTTP y preferentemente con HTTP Status 301 (moved permanently) en vez de otras como 301, 307, etc.
- Utilizar palabras claves en nombres de archivos (css, js, etc) y en las clases y Ids de los elementos HTML. También aprovechá algunos atributos y etiquetas que se usan poco, tipo poner muchos "name" (siempre en relación con el texto, spamear tu propio html no sirve), sobre todo en los links y otras boludeces así.
- Te recomiendo la extensión para Firefox "SEOQuake" que trae muchas herramientas copadas. Sino también esta URL tiene algunas cosas muy útiles: http://www.webconfs.com/
- Algunos meta-tags ya ni le dan bola los navegadores, pero no está de más ponerlos (robots, revisit-after). Los más tradicionales (descriptions, keywords y podríamos agregar searchtitle) tampoco se usan mucho pero son buenos. Ahí la recomendación es no poner muchas más palabras que las claves. Agregar sólo algunas más para balancear la densidad y en también puede ayudar agregar las palabras claves mal escritas (tipo: "hospedaje, ospedaje, hospedage").
- Un sitemap tradicional (no el sitemap.xml, sino una página con links a las principales secciones del sitio), también ayuda ya que da un punto de entrada asegurado a todas las páginas que querés que los buscadores indexen y además puede ser útil para los usuarios.
- Sugiero que al robots.txt le agregues un par de restricciones, sobre todo para que Google no indexe pelotudeces inútiles. Ponele le podés decir que no te indexe las carpetas donde tenés los JS y/o los CSS. También podés evitar que indexe secciones administrativas que sean accesibles desde internet.
- Siempre ayuda tener el XHTML y el CSS válidos.
- Mira el sitio con un navegador de texto (lynx x ejemplo) para que veas como lo "ven" los spiders
- La frecuencia con la cual actualizas los sitios
- Los backlinks siguen siendo lo mas importante, o sea agrega un par de bookmarks 2.0 (como por ejemplo: enviar a meneame), asi te pueden linkear

Después la clave está en ir aumentando el PageRank obteniendo links en otras páginas con buen PR, de temáticas relacionadas y con anclas (el texto del "a") que tengan que ver con aquella keyword para la que estás optimizando tu sitio.

La estrategia de posicionamiento se debe hacer con objetivos claros, para poder medirlos bien. También es importante la búsqueda de palabras claves, lo más específicas posibles, por ejemplo aparecer primero en "Vuelos baratos" de Argentina y España te va a costar mas que pedirle a Demián que adore al ZF.

Si tu sitio es nacional y se destaca por los viajes al interior trata de posicionarte en "viajes al interior del pais" por ejemplo. Aca tenes que ver cuales son las búsquedas que hacen los usuarios.

Cuando se evalua la relevancia de un contenido, un factor importante son los links a ese contenido, tanto externos como internos.

Los externos en cierta forma son dificiles de controlar, ya que depende de muchas cosas, y mas que nada del tipo de site, pero los internos si los podemos manejar, y el hecho de mayor cantida de links en si que tenga el site, como de links hacia un mismo lugar, aumentan el valor del contenido.

Un ejemplo (siguiendo con el tema del diario online), vos tenes las categorias, que son links hacia N cantidad de notas, pero si en cada nota haces referencias a notas "relacionadas", vas aumentando la cantidad de links internos hacia una misma nota.

Otra cosa importante es la cantidad de links, y como hacer para "mutar" esos links con el fin de obtener mas, y aca podemos usar una de las soluciones favoritas por mi, que son los filtros de busquedas por links, los cuales tinene 2 cosas positivas, potencia la cantidad de links, y no son contenido duplicado para google.

Por ejemplo, entro en la portada, y tengo todas las noticias del dia, pero arriba por medio de links establesco los filtros de "Espectaculos", "Sociales", "Policiales", etc. Cada vez que hago click en esos links, me filtra las noticias de la portada, mostrando las notas referidas a esa categoria. Por lo que en vez de tener solamente la "home", pase a tener N paginas representadas por cada categoria. Como es un diario, si tengo por fechas, tengo N x Z, donde N son las categorias, y Z los dias.
Pero esto es casi basico, ahora vamos a inventar mas links... como "Noticia mas leida del dia", "La mas comentada" (fundamental los comentarios de usuarios, son los que generaran mas paginas, y contenido todo el time para que nos indexen, yumi yumi).

Lean sobre esto, por que hay miles de estrategias para ser groso en materia SEO (www.educaedu.com.ar es un site bien indexado, depaginas.com.ar es otro groso del SEO, va el mejor).

Este documento fue extraido de la lista de de usuarios de webandbeer. Este contenido es parte del aporte de varios usuarios.

lunes, 1 de septiembre de 2008

WebAndBeer 4º edicion

Estimados colegas, ya es hora del 4º webandbeer, ya que todos asi lo han demandado.


Prometo sorpresas para la proxima edicion del webandbeer, y les recomiendo notebooks, por que vamos a hacer cosas interesantes.


En esta edicion, contaremos con el sponsoreo de Dream Designers, o los chicos de DePaginas para los amigos, donde habra comida y chupi gratis, ademas de buenas charlas y cosas de ese estilo.

Fecha: 09-09-2008, 19:30 hs.

El encuentro sera en el CicloBar, Guatemala 5800 (esq. Carranza), Buenos Aires, Argentina.


Esta vez, haremos pizza y birra, mas vino para los entendidos, y whisky para los borrachos de nivel Sr.



Para registrarse en el evento http://www.eventioz.com/events/webandbeer-4o-edicion


Invita: BSD Solutions – DreamDesigners


jueves, 28 de agosto de 2008

Nuevo algoritmo para incrementar la eficiencia de las redes

Estaba de paso y vi este artículo en Slashdot.

Una gente de la Universidad de California, desarrolló un nuevo algoritmo para incrementar significativamente la eficiencia de los ruteos de las redes de computadoras. Básicamente, según lo describe este artículo, el algoritmo es una nueva solución a la pregunta "¿Cuál es la mejor forma para ir de acá a allá?".

Es un algoritmo cuyo uso se justifica en redes dinámicas, donde los nodos se activan y desactivan constantemente. El artículo mencionado indica que la forma de trabajo actual hacía que cada vez que un nodo se desconectaba, todos los demás debieran actualizar su tabla re ruteo recalculando los mejores caminos para enviar los paquetes. Este algoritmo básicamente lo que hace es seleccionar cuáles de los updates es necesario enviar y cuáles no.

El paper completo se puede descargar en PDF de aquí.

miércoles, 27 de agosto de 2008

El bug más grande de internet

A través de Slashdot llego a esta noticia de Wired, según la cual un par de investigadores de seguridad informática revelaron el que sería el bug más grande de toda la arquitectura de internet.

Se trata de un error en el protocolo BGP (Border Gateway Protocol), a través del cual cualquier hijo de vecino (con conocimientos avanzados de networking, hacking y programación, por supuesto), podría tener acceso a todo el contenido no cifrado que circula por internet, modificandolo a su antojo. Básicamente a través de este agujero se puede "engañar" a los routers de todos lados para redirigir el tráfico hacia un eavesdropper, y hacer un ataque man-in-the-middle, y lo único que se necesita es tener un router con soporte para BGP (algo bastante común).

Este bug aparentemente había sido detectado en 1998 por Peiter "Mudge" Zatko, quien testificó e informó a "los burócratas de Washington" (como diría Monty Burns), y evidentemente todavía no se hizo nada al respecto. En realidad, parece que es algo sobre lo que se venía hablando hace tiempo, pero nadie lo había podido demostrar. En teoría era factible, pero nadie lo había llevado a la práctica. En la última DefCon Hacker Conference, Anton "Tony" Kapela y Alex Pilosov lo demostraron interceptando tráfico de la red de la conferencia, mandandolo a su sistema en New York y ruteandolo de vuelta a la conferencia. Ahora bien, esto no lo hicieron realmente a través de un bug o falla del protocolo BGP, sino explotando la forma en que el mismo funciona. Es decir que es un error estructural, porque la arquitectura de BGP se basa en la confianza en los nodos.

En la nota se da un ejemplo bastante sencillo:
Para enviar un mail desde los clientes de Sprint en California a los de Telefónica en Espala, las redes entre las compañías usan routers BGP para ver cuál es el camino nñas rápido y eficiente para que la información llegue a destino. Pero el protocolo BGP asume que el router realmente dice cuál es el mejor camino. De esta manera, los eavesdroppers pueden engañar a los routers diciendo que les manden el tráfico a ellos.


Más especificamente, cuando cualquiera hace un request a un server, el DNS resuelve una IP de destino a partir del dominio. Luego el router del ISP consulta una tabla BGP para obtener la mejor ruta. Esa tabla está compuesta de anuncios (casi como propagandas) hechos por ISPs y otras redes, que se llaman ASes Autonomous Systems, donde declaran el rango de IPs (o prefijos de IPs) a las cuales entregarán tráfico. En esa tabla se busca la IP de destino para los paquetes entre los distintos prefijos. Si hay dos ASes que tienen la misma IP, la que tenga el prefijo más específico "gana" el tráfico. Por ejemplo, si hay un prefijo que matchea con un rango de 90.000 IPs y otro con un grupo de 24.000, el tráfico se envía al segundo.


Entonces, para interceptar la información, un eavesdropper "publicita" un rango de IPs más acotado que el de otras redes y, una vez propagado el aviso, el tráfico empieza a llegar al interceptor. Esto no es algo nuevo y se llama IP Hijacking (lo que hizo una compañía pakistaní el año pasado con YouTube). El tema es que de la forma en que se venía haciendo se creaban desconexiones en la red (outages), lo cual hacía que los hijackings se descubrieran rápidamente.

La mejora de Kapela y Pilosov es que usan un método llamado "AS path prepending" (algo así como "preposición de la ruta del AS"), a través del cual pueden hacer que el tráfico llegue a su destino original (es decir, un man-in-the-middle, no como en el caso anterior donde el tráfico terminaba en otro lugar). Entonces, al no producirse fallas, no se detecta.

Luego el artículo sigue bastante y se explican diversas formas en que el error se puede combatir. De hecho los especialistas dicen que los ISPs están en condiciones de combatir este tipo de ataques, pero no lo hacen porque implica mucho trabajo y resulta costoso.

Realmente es un tema muy interesante y hay que seguirlo de cerca para ver qué cambios se hacen en la arquitectura de internet. Mientras tanto, y esto tampoco es nuevo, cualquier información importante ¡¡¡¡¡TIENE QUE VIAJAR ENCRIPTADA!!!!!