lunes, 28 de julio de 2008
Nuevo favicon
Posted by Dani Serra at 9:01 p. m. |
Labels: Dani Serra, Daniel Serra, favicon, zonajobs
sábado, 26 de julio de 2008
Google Gadgets para tu web
Posted by Dani Serra at 4:09 p. m. |
Labels: Dani Serra, Daniel Serra, Google Gadgets
lunes, 21 de julio de 2008
Mashups deliciosos
Me compré este libro de la colección wrox "Programer to Programer", totalmente por sobre mi nivel, pero bastante didáctico para aprender algunas cosas básicas de programación.
Me tiene muy entretenido el desarrollo de un mashup con el api de del.icio.us, una idea que se me ocurrió y quiero ver si la puedo llevar a la práctica, y eso hace que esté posteando menos seguido en el blog.
No tiene que ver con SEO de manera directa, aunque creo que (si me sale) puede ser una buena aplicación que termine mandando links para acá.
Vale la pena, en los próximos días explico un poco más.
Posted by Dani Serra at 6:36 p. m. |
Labels: Dani Serra, Daniel Serra, del.icio.us
viernes, 11 de julio de 2008
Se lanzó Alltop Argentina
Me enorgullece informar que hoy se lanzó argentina.alltop.com, la página argentina del famoso "agregador" de feeds alltop.com, administrado por el famoso blogger Guy Kawasaki.
Más allá de que los lectores de blogs ya tenemos nuestros feeds favoritos cargados en algún feed reader (como Google Reader o Bloglines), alltop.com es un excelente lugar para ir y ver en una única página, de que se está hablando sobre un determinado tema, sea SEO, twitter, golf o cualquier otra cosa de las que aparecen en la home.
Hacía tiempo que les venía pidiendo la página argentina, y la semana pasada me solicitaron una lista de feeds, así que se las mandé. Algunos feeds quedaron, otros no, y hubo muchos agregados por parte de ellos, como los de TN, el ojo digital, etc (rankearán bien en Alexa?). Muy amablemente, me mencionan en la parte de Acknowledgments (agradecimientos).
Entre los que incluí y quedaron en la lista están los excelentísimos blogs Argentinos:
- http://www.fabio.com.ar/
- http://www.uberbin.net/
- http://www.amphibia.com.ar/
- blocdeperiodista.com
- google.dirson.com
- http://www.puntogeek.com/
- butano.blogspot.com
Invito a los autores a humildemente incorporar el Alltop Badge en sus sites:
Posted by Dani Serra at 8:29 p. m. |
Labels: alltop, Dani Serra, Daniel Serra
sábado, 5 de julio de 2008
www.daniel-serra.com
Compré una dirección de dominio:
daniel-serra.com
o lo que es lo mismo:
http://www.daniel-serra.com/
En ambos casos, el link redirecciona al blog actual, que por ahora sigue en Blogger, vamos a ver si me animo a moverlo a algún lugar más pro, como typepad o wordpress.
Como siempre ocurre en estos casos, la dirección de dominio que uno quiere ya está ocupada. Yo quería www.danielserra.com, que por ahora no tiene nada subido, pero alguien ya compró ese nombre. Entonces tuve un dilema entre dos que estaban disponibles:
1) daniel-serra.com: con la desventaja de tener que tipear el molesto "-"
2) danielserra.net: con la desventaja que no es ".com"
Y después de leer varios sitios que dan recomendaciones de nombres de dominio, llegué a la conclusión que:
- el guión "-" le gusta a los buscadores, porque los ayuda a diferenciar donde termina una keyword y donde comienza la otra.
- el guión "-" es el único carácter especial que no es tan dramático incluir. Ningún otro es recomendable. Nota interesante al respecto acá.
- ".net" en definitiva tampoco hubiera estado tan mal. Martín Varsavsky, por nombrar un groso, usa ".net"
De todas las direcciones que vi para elegir la mía, la más original es la de Matt Mullenweg de Wordpress que es ma.tt (".tt" es la extensión de Trinidad Tobago). Un fenómeno en branding este Matt.
Como este post está rankeando muy bien, le voy a agregar unos links para repartir el "juice" con otras landing pages:
- Imágen de Daniel Serra
- Post en inglés de Daniel Serra
- Home blog Daniel Serra
Posted by Dani Serra at 5:14 p. m. |
Labels: Dani Serra, Daniel Serra, dominio
martes, 1 de julio de 2008
¿Alguna vez viste a un bot?
Un bot es algo bastante menos interesante que la imagen de la izquierda. Como ya dijimos en el post anterior, se trata "de un simple programita que visita páginas de internet de manera automática, las copia, las manda al “Page Depository”, luego visita cada uno de los links que tenía esa página y así sucesivamente."
Yo nunca había visto un bot, hasta que me crucé con uno en el libro "Google PageRank and Beyond". Me pareció muy simpático así que decidí ponerlo en un post.
Está escrito en lenguaje "Matlab", y la intención no es entrar en el detalle de cada línea de código (lo que está muchísimo más allá de mis posibilidades), sino sólo saber de que se trata. Matlab tiene dos comandos interesantes para la creación de bots: uno que se llama "urlread" que permite leer la página, y otro llamado "urlwrite" que permite copiarla para pasarla al "Page repository".
Ahí va, a no desmayarse:
function [U,L] = surfer(root,n)
% SURFER Create the adjacency matrix of a portion of the Web.
% [U,L] = surfer(root,n) starts at the URL root and follows
% Web links until it forms an n-by-n adjacency matrix of links.
% U = a cell array of the URLs visited.
% L = sparse matrix with L(i,j)=1 if url {i} is linked to url {j}.
%
% Example: [U,L] = surfer('http://www.harvard.edu',500);
%
% This function currently has two defects. (1) The algorithm for
% finding links is naive. We just look for the string 'http:'.
% (2) An attempt to read from a URL that is accessible, but very slow,
% might take an unacceptably long time to complete. In some cases,
% it may be necessary to have the operating system terminate MATLAB.
% Key words from such URLs can be added to the skip list in surfer.m.
% Initialize
U = cell(n,1);
hash = zeros(n,1);
L = logical(sparse(n,n));
m = 1;
U{m} = root;
hash(m) = hashfun(root);
j = 1;
while j <>
% Try to open a page.
try set(t1,'string',sprintf('%5d %s',j,U{j})) set(t2,'string','');
drawnow page = urlread(U{j});
catch set(t1,'string',sprintf('fail: %5d %s',j,U{j})) drawnow j = j+1;
continue end if get(slow,'value') pause(.25) end
% Follow the links from the open page.
for f = findstr('http:',page);
% A link starts with 'http:' and ends with the next quote.
e = min([findstr('"',page(f:end)) findstr('''',page(f:end))]);
if isempty(e), continue, end url = deblank(page(f:f+e-2)); url(url<' ') = '!';
% Nonprintable characters if url(end) == '/', url(end) = [];
end
% Look for links that should be skipped.
skips = {'.gif','.jpg','.jpeg','.pdf','.css','.asp','.mwc','.ram', ... '.cgi','lmscadsi','cybernet','w3.org','google','yahoo', ... 'scripts','netscape','shockwave','webex','fansonly'};
skip = any(url=='!') any(url=='?');
k = 0;
while ~skip & (k < k =" k+1;">
skip = ~isempty(findstr(url,skips{k}));
end if skip if isempty(findstr(url,'.gif')) & isempty(findstr(url,'.jpg'))
set(t2,'string',sprintf('skip: %s',url)) drawnow if get(slow,'value') pause(.25)
end
end continue end
% Check if page is already in url list.
i = 0; for k = find(hash(1:m) == hashfun(url))';
if isequal(U{k},url) i = k; break
end
end
% Add a new url to the graph there if are fewer than n.
if (i == 0) & (m < m =" m+1;">
hash(m) = hashfun(url); i = m;
end %
Add a new link. if i > 0
L(i,j) = 1;
set(t2,'string',sprintf('%5d %s',i,url))
line(j,i,'marker','.','markersize',6)
drawnow
if get(slow,'value')
pause(.25)
end
end
end
j = j+1;
end
delete(t1)
delete(t2)
delete(slow)
set(quit,'string','close','callback','close(gcf)','value',0)
%------------------------
function h = hashfun(url)
% Almost unique numeric hash code for pages already visited.
h = length(url) + 1024*sum(url);
Como al bot también le dicen "spider", acá te pongo una araña para que persiga a tu mouse :)
Posted by Dani Serra at 8:13 p. m. |
Labels: bot, Dani Serra, Daniel Serra