Imagine una mañana temprano en la que está tomando una taza de café recién hecho y su computadora le lee los últimos titulares, todo por sí solo. ¿No suena increíble?
Bueno, con Python, puede crear su propio lector de noticias personalizado, que leerá todos los titulares principales por usted, junto con los extractos de cada titular. Sí, eso es correcto. Al usar las bibliotecas adecuadas, puede hacer que Python realice todas sus rutinas matutinas, sin tener que leer todas y cada una de las palabras por su cuenta.
Así es como puede escribir este código y ajustarlo a su sitio web de noticias favorito.
Requisitos previos para ejecutar el código
Antes de saltar y comenzar a escribir el código, debe cumplir algunos requisitos previos. Estos son algunos requisitos muy básicos, que pueden hacer que el uso de Python sea más fácil y efectivo.
- Pitón: Tener instalada la última versión de Python sería una buena decisión. Puede instalar cualquier IDE de Python para obtener mejores resultados.
- Sitio web de noticias/acceso a internet: Dado que el código de Python lee los titulares principales de su sitio web favorito, debe asegurarse de poder acceder al sitio web mientras ejecuta este código.
Todo el código está escrito en Jupyter Notebook, un popular IDE de Python para esta guía. Además, el sitio web de noticias de India Today está codificado dentro del código de muestra.
Para descargar Jupyter Notebook, puede usarlo como parte del paquete anaconda o descargar una versión independiente en su sistema.
Descargar:Anaconda | Cuaderno Jupyter
Sin más preámbulos, profundicemos en el código.
Escribiendo el código en Python
Para comenzar, debe importar algunas bibliotecas de Python, cada una con diferentes propósitos.
importar win32com.client como wincl
desde urllib.request importar urlopen como ureq
de bs4 importar BeautifulSoup como sopa
sp = wincl. Despacho("SAPI.spVoice")
Donde:
- win32com.cliente: Esta biblioteca interactúa con los dispositivos de Windows y ejecuta los programas de Python sin problemas.
- urllib.solicitud: Esta biblioteca maneja los valores de URL del módulo de solicitud.
- bs4: La biblioteca BS4 contiene la función Beautiful Soup, que extrae datos de sitios web usando Python.
- sp = wincl. Despacho("SAPI.spVoice"): Activa los comandos de voz en Windows.
Este código funcionará solo en Windows, ya que llamará a la biblioteca win32.com.client.
A continuación, debe definir la URL (enlace) del sitio web dentro del URL variable, que se almacena en la memoria de Python.
dirección URL = https://www.indiatoday.in/top-stories
Cree un nuevo cliente variable para almacenar el comando de apertura de URL.
cliente = ureq (url)
imprimir (cliente)
donde:
- cliente: Nueva variable.
- ureq: Función de Python importada de urllib.request, que abre la url almacenada.
Ya que ha abierto la URL en la memoria, es hora de verificar si el sitio web en cuestión permite conexiones no seguras a través de Python. Puede imprimir la variable del cliente y verificar la salida.
Hay dos posibilidades con el comando de impresión:
- Error HTTP: Cuando un sitio web es seguro, no puede raspar el contenido usando Python.
- Fragmento de código: Si se devuelve un fragmento de código después de ejecutar el sitio web, suponga que puede extraer fácilmente los titulares.
Una vez que haya definido la URL del sitio web de noticias dentro del comando URL, es hora de importar el código HTML a una variable.
page_html = cliente.leer()
imprimir (pagina_html)
Debe imprimir el código HTML del sitio web importado a Python como medida de precaución. Incluso puede hacer coincidir este código con el código del sitio web disponible en el Inspeccionar opción.
Antes de convertir el código, debe cerrar el sitio web desde la memoria de Python utilizando el comando de cierre.
cliente.cerrar()
Dado que tiene el código HTML importado en una variable de Python, debe convertirlo a un formato legible de Python para aplicar el encontrar y encuentra todos comandos para buscar palabras clave.
Puede pasar el siguiente comando para convertir el código HTML:
page_soup = sopa (page_html, "html.parser")
Donde:
- pagina_sopa: Nueva variable.
- sopa: alias para el Hermoso módulo de sopa.
- página_html: Variable que contiene el código HTML del sitio web.
- html_parser: Sintaxis predeterminada para convertir el código HTML.
Una vez que el código está listo para usar, es hora de examinar el código HTML del sitio web para comenzar a buscar palabras clave de encabezado.
Para hacerlo, haga clic derecho en cualquier parte del sitio web y haga clic en Inspeccionar. Esto abrirá el código HTML del sitio web en cuestión.
En la ventana de código del sitio web, desplácese hasta que localice las etiquetas de contenedor que almacenan los titulares.
Estos están contenidos dentro del ver-contenido etiquetas en el sitio web India Today. Los contenedores de cada sitio web de noticias varían, pero debería poder navegar por el código con relativa facilidad.
artículos = page_soup.find("div", { "clase": "ver-contenido" })
Finalmente, debe capturar las etiquetas secundarias, que contienen los titulares principales que Python le leerá.
artículos = artículos.findAll("div", {"clase": "listado de categorías"})
El contenedor de contenido de vista contendrá múltiples titulares, la capa exterior de sus titulares.
Para capturar las etiquetas H2 y los fragmentos enumerados con cada título, debe ejecutar un ciclo.
yo = 1
para x en artículos:
título = x.find("h2").texto
para = x.buscar("p").texto
imprimir (yo, título, "
", "
", para, "
", "
")
sp. Hablar (título)
sp. hablar (para)
yo=yo+1
Donde:
- I: Nueva variable de contador, que se autoincrementará.
- título: Nueva variable para guardar el titular (h2).
- paraca: Nueva variable para contener los párrafos asociados a cada H2.
- imprimir: El título del titular y el párrafo se imprimirán en la interfaz de Python.
- sp. Hablar (Título): Python leerá cada título almacenado.
- sp. Hablar (para): Python leerá cada fragmento de párrafo almacenado.
- yo = yo+1: Este comando incrementa automáticamente el número de serie asociado con cada título que se muestra en la interfaz de Python.
Uso del módulo Beautiful Soup de Python para leer sus noticias diarias
Cada vez que ejecute el código, se descargarán nuevos titulares del sitio web de noticias antes de leerlos en voz alta. Python ejecuta el código cada vez que ejecuta el conjunto de códigos, lo que lo mantiene actualizado con los cambios en el sitio web.
Python seguirá mostrando y leyendo los titulares anteriores hasta que actualice y vuelva a ejecutar el código.
Usar Python para leer sus titulares diarios es fácil
Python, como lenguaje de código abierto, ofrece una serie de herramientas como Beautiful Soup, Selenium y otros marcos, tanto para principiantes como para usuarios avanzados.
Si desea recibir sus noticias diarias por voz, Python lo hace fácil. Aprender este lenguaje en particular también puede ayudarte a convertirte en un mejor programador en todas las áreas.
Ya sea que necesite herramientas de Python para ciencia de datos, aprendizaje automático, desarrollo web o cualquier otra cosa, esta lista lo tiene cubierto.
Leer siguiente
- Programación
- Pitón
- Noticias
- Consejos informáticos
- Programación

Gaurav Siyal tiene dos años de experiencia en redacción, escribiendo para una serie de firmas de marketing digital y documentos del ciclo de vida del software.
Suscríbete a nuestro boletín
¡Únase a nuestro boletín para obtener consejos técnicos, reseñas, libros electrónicos gratuitos y ofertas exclusivas!
Haga clic aquí para suscribirse