LSWC scraping the web/taller scraping lwsc 2011
Contenido
Planteamiento del taller de scraping
En el taller vamos a usar Python y Amara para hacer una práctica de web scraping. El nivel del taller es de iniciación.
Configuración
Python y Amara son multiplataforma. En el taller vamos a indicar cómo instalar el entorno en linux.
$ sudo apt-get install python2.7 python2.7-dev python-pip idle-python2.7
$ sudo pip install http://files.akara.info/00-amara-latest.tar.bz2 Tip: Es necesario tener instalado un compilador de C y la cabeceras de python (en debian/ubuntu hay que instalar python-dev)
|
Lectura de una página html
El proceso básico consiste en utilizar un parser para analizar el documento. Amara tiene 3 parsers:
amara.parse amara.bindery.parse amara.bindery.html.parse
Para usar documentos html usaremos el tercero, que además soporta documentos no válidos (tagsoup). El objeto que devuelve el parser es el que usamos para leer y modifcar un documento web.
Vamos a practicar con un ejemplo muy sencillo, el ejemplo de la liga
Ejemplo | |
Lo primero que hay que hacer es ver la estructura del documento. Desde el navegador, accede al código fuente de la página web. Navegando al estilo Python
print doc.html.head.title
for liga doc.html.body.h2: print liga
for equipo in doc.html.body.ul.li: print equipo
|
Un ejemplo más complejo: análisis de los cursos de formación para el empleo
Vamos a usar ahora un ejemplo real: el listado de cursos de formación para el empleo del INAEM recogido en http://plan.aragon.es/MapaRec.nsf/fmrListado?OpenForm
Listado de cursos
Observando el código fuente, vemos que los nombres de los cursos van en una celda con class="textoApl1":
<tr> <td class="textoApl1" style="background-color: rgb(248, 247, 247);"> <a class="enlaceApl1 pequena1 negrita" alt="Pulse para acceder al contenido del curso" title="Pulse para acceder al contenido del curso" href="/MapaRec.nsf/(ID)/B9666A70A2B596C7C125783A0029923D?OpenDocument">ACTIVIDADES ADMINISTRAT...RELACIÓN CON EL CLIENTE</a> </td> ...
La expresión xpath correspondiente es:
u'//table/tbody//tr'
from amara.bindery.html import parse doc = parse('lista_cursos_inaem.html') CURSOS = u'//table/tbody//tr' lista_cursos = doc.xml_select(CURSOS) for c in lista_cursos[1:]: # la primera fila eran cabeceras!!! print c.td
¿Quieres más datos?
print c.td.a.href # imprime la url (relativa) del curso print c.td[4] # quinta columna: ciudad del curso
¿Cursos que se celebran en Huesca?
from amara.lib import U # U devuelve el texto de un elemento for c in lista_cursos[1:]: # primera fila cabeceras if U(c.td[4]) == u'Huesca': print c.td
Búsquedas genéricas
Si buscamos un nodo que tenga un texto:
s = "texto buscado" expr = u'.//text()[contains(., "%s")]'%s.decode('utf-8')
Si buscamos un contenido que puede estar como valor de un atributo:
expr = u'.//@*[contains(., "%s")]'%s.decode('utf-8')
Si no sabes XPATH, firebug te puede ayudar. Firebug copia la XPATH a cualquier elemento.
Transformando el documento
Podemos transformar el contenido de una página al vuelo para volver a servirla mejorada (inyección semántica, limpieza de marcado, adaptación del contenido al destinatario ...)
Cambiamos el nombre del curso en la misma página: Ponemos en mayúscula sólo la primera letra.
for c in lista_cursos[1:]: nombre_curso = U(c.td.a) c.td.a.xml_children[0].xml_value = nombre_curso.capitalize()
Prueba a volver a mostrar el documento que habías analizado:
doc.xml_write()