alguien me podria decir si existe alguna forma de bajarme el contenido de paginas web a un fichero en python, un estilio al wget de linux????
Código: Text Para bajar una página a un fichero usas el módulo urllib2 y la función urlretrieve algo así:urlretrieve('http://www.solocodigo.com', '/home/RadicalEd/solocodigo.html') Ojala te sirva.Chao Muchas gracias radicalEd lo he probado, pero no es justo lo que necesito. Esto hace como un enlace a la web y yo lo que necesito es guardar el contenido de la misma en un fichero txt, lo he intentado y no va. De todas formas muchas gracias espero poder hacer algun apaño con los demas metodos del mosdulo.Un saludo
Hola precisamente me gusta?ia saber si usando urlretrieve yo puedo hacer que el archivo se descargue cada cierto tiempo ya que el archivo que necesito descargar se actualiza cada media hora.
Hola precisamente me gustaŕia saber si usando urlretrieve yo puedo hacer que el archivo se descargue cada cierto tiempo ya que el archivo que necesito descargar se actualiza cada media hora.
Perdona igual me exprese mal .servir si sirve pero no para lo que quiero hacer, que es, bajarme todas las web donde haya recetas de cocina (sin especificar exactamente la web.En linux seria :Código: Text lynux --dump 'http://www.google.com/search?q=recetas+de+cocina' pero en python no se como poner esa segunda parte('http://www.google.com/search?q=recetas+de+cocina').