sábado, 31 de diciembre de 2011

El declive de la clase media

Para despedir el gris 2011 y dar la bienvenida (qué remedio) al negro 2012 he traducido el grueso del último artículo del año del blog The Economic Collapse, ya recomendado anteriormente. Se trata de una recopilación de estadísticas que demuestran la creciente decadencia de la clase media en EE.UU., la otrora "tierra de las oportunidades", y todavía el modelo de sociedad próspera para muchos gracias al espejismo mantenido por los mass media. El blog es obra de un norteamericano suficientemente cualificado (más que algunos ministros del Reino de España) y profundamente preocupado por el futuro, que un buen día decidió empezar a analizar y publicar información normalmente vetada, maquillada o aislada en los medios tradicionales, que permita a cualquiera interesado conocer el verdadero alcance de la crisis en que estamos inmersos. Porque en un mundo perversamente globalizado todo acaba pareciéndose sospechosamente y, en el caso de los problemas de la clase media americana, con un poco de atención podremos establecer paralelismos con los que venimos padeciendo en esta Europa de los PIIGS. Y adivinar lo que hay más allá, si no nos asusta asomarnos al abismo...

30 Estadísticas que demuestran que la clase media está muriendo ante tus ojos mientras entramos en el 2012

Hubo un tiempo en que los Estados Unidos tenían la clase media más vibrante que el mundo haya visto jamás. Por desgracia, eso esta cambiando rápidamente. Las estadísticas que estás a punto de leer demuestran más allá de toda duda que la clase media de los Estados Unidos está muriendo ante tus ojos según entramos en el 2012. La disminución de la clase media no es algo que haya ocurrido repentinamente. Más bien ha habido un desgaste continuado de ésta durante las últimas décadas. Millones de empleos se han enviado al exterior, el incremento de la inflación ha sido mayor que el de los salarios, y una deuda descomunal ha asfixiado las finanzas de millones de familias americanas. Cada día, más y más americanos dejan la clase media para caer en la pobreza. De hecho, durante el año pasado se empobrecieron más americanos que durante cualquier otro año anterior. El número de empleos y barrios de clase media sigue menguando a un ritmo asombroso. Como ya he escrito anteriormente, América en su conjunto está empobreciéndose como nación y al mismo tiempo la riqueza se está concentrando cada vez más en las clases altas. Así no es como se supone que debe funcionar el capitalismo, y no es nada bueno para América.


Hoy he ido al supermercado y me he quedado horrorizado al ver los precios. Sinceramente, no sé como se las apaña la mayoría de familias hoy en día. Acabé pagando más de 140 dólares por un carrito de la compra a dos tercios de su capacidad. Y eso después de ahorrar 67 dólares en productos de oferta.

Cuando el coste de los productos básicos que necesitamos - alojamiento, comida, gas, electricidad - suben más rápido de lo que lo hacen nuestro ingresos, eso significa que cada vez somos más pobres.

Desgraciadamente, si te fijas en las cifras a largo plazo, aparecen claramente tendencias muy negativas...

· La cantidad de buenos empleos sigue disminuyendo.

· La inflación sigue subiendo más que nuestros salarios.

· Los consumidores se están endeudando a unos niveles increíbles.

· El número de americanos considerados "pobres" sigue creciendo.

· El número de americanos obligados a recurrir al gobierno en busca de ayuda económica continua creciendo.

Cuando leas esto debería quedarte claro que la clase media de EE.UU. está seriamente amenazada. Lo que sigue son 30 estadísticas que lo demuestran:

1) Actualmente, solo un 55,3% de americanos entre 16 y 29 años tiene un empleo.

2) En EE.UU. hay actualmente 240 millones de personas con edad de trabajar. Solo 140 millones lo hacen.

3) Según CareerBuilder, solo un 23% de las empresas americanas tiene intención de contratar más gente en 2012.

4) Desde el año 2000, los EE.UU. han perdido un 10% de los empleos típicos de la clase media. En el 2000 existían 72 millones de estos empleos y ahora solo hay 65 millones.

5) Según el New York Times, aproximadamente 100 millones de americanos están viviendo por debajo del umbral de la pobreza o justo por encima de éste.

6) Según el mismo artículo del New York Times, un 34% de los ancianos y un 39% de los niños están viviendo en la pobreza o casi.

7) En 1984, la media de hogares con un cabeza de familia de 65 años o más era 10 veces mayor que la media de hogares con un cabeza de familia de 35 o menos años. Hoy en día, esta diferencia es de 47 veces en lugar de 10.

8) Desde el año 2000, los ingresos en hogares con un cabeza de familia de entre 25 y 34 años han disminuido en torno a un 12 por ciento teniendo en cuenta la inflación.

9) El valor total de los bienes inmobiliarios de los EE.UU. ha bajado desde los 22,7 billones (millones de millones) en 2006 a 16,2 billones en la actualidad. La mayor parte de la riqueza, perdida por la clase media.

10) Muchas de las grandes ciudades industriales se están convirtiendo en ciudades fantasma. Desde 1950, la población de Pittsburgh (Pennsylvania) ha disminuido más de un 50%. En Dayton (Ohio) un 18,9% del total de viviendas están vacías.

11) Desde 1971, las deudas de consumo en los EE.UU. han crecido un 1700%.

12) El número de páginas de las leyes y regulaciones relacionadas con los impuestos federales se ha incrementado en un 18000% desde 1913. Los ricos saben cómo eludir los impuestos, pero la mayoría de la clase media no.

13) El número de americanos que cayó en la pobreza (2,6 millones) el año pasado ha batido un récord y la pobreza extrema (un 6,7%) está al nivel más alto jamás medido en los EE.UU.

14) Según un estudio, entre 1969 y 2009 los salarios medios de los varones entre 30 y 50 años bajaron un 27 por ciento teniendo en cuenta la inflación.

15) Según la diputada Betty Sutton, América ha perdido una media de 15 fábricas al día durante los últimos 10 años. Durante 2010 fue incluso peor: cerraron una media de 23 fábricas al día.

16) En 1980, menos del 30% de los empleos eran de baja remuneración. Hoy en día lo son más del 40% de los empleos.

17) La mayoría de los americanos hace lo que puede para ganarse la vida hoy en día aunque la mitad no pasa de 505 dólares semanales.

18) Los precios de los alimentos siguen creciendo a un ritmo considerable. La ternera subió un 9,8% el año pasado, los huevos un 10,2% y las patatas un 12%.

19) Los recibos de la luz han subido más rápido que la inflación durante 5 años seguidos.

20) El hogar americano medio habrá gastado unos 4.155 dólares en gasolina para el final del 2011.

21) Si la inflación se midiera de la misma forma que se hacía en 1980, la tasa de inflación real estaría por encima del 10%.

22) Si el colectivo de americanos considerados "buscando empleo" fuera determinado igual que en 2007, la tasa "oficial" de paro estaría en un 11%.

23) De acuerdo con Student Loan Debt Clock, el total de deuda en concepto de préstamos para estudios pasará de un billón de dolares en algún momento de 2012. La mayoría de esa deuda la contrajeron miembros de la clase media.

24) Increíblemente, uno de cada siete americanos vive de los vales de comida y esta proporción sube a uno de cada cuatro si se trata de población infantil.

25) Desde que Barack Obama llegó al poder, el número de americanos viviendo de los vales de comida se ha incrementado en 14,3 millones.

26) En 2010, un 42 por ciento de las madres solteras en los EE.UU. vivían de los vales de comida.

27) En 1970, un 65 por ciento de americanos vivía en barrios de clase media. En 2007, solo un 44 por ciento lo hacía.

28) De acuerdo a un informe reciente elaborado por Pew Charitable Trusts, aproximadamente uno de cada tres americanos que crecieron en un hogar de clase media ha descendido en la escala social.

29) Actualmente en los EE.UU. el 1% más rico de los ciudadanos posee más riqueza que el 90% más pobre.

30) El 50% más pobre de los americanos posee en conjunto solo un 2,5% de toda la riqueza de los EE.UU.

miércoles, 30 de noviembre de 2011

Wikipedia sin conexión a Internet

Aunque había leído algo al respecto hará un par de años, esta semana he vuelto a interesarme por la posibilidad de "descargarme la Wikipedia". Que ¿qué sentido puede tener algo así en un mundo hiper-conectado? Puede que me hayan influido las tensiones provocadas por EEUU, Reino Unido e Israel en Oriente Medio, que para algunos analistas significan la antesala de una Tercera Guerra Mundial. Aunque no hay que ser tan drástico para encontrarle la utilidad: usarla simplemente como respaldo para cuando falle la conexión a Internet (por cualquier causa "normal" ;) o cuando simplemente no haya una disponible...

Debido a las licencias abiertas de los contenidos de Wikipedia (exceptuando parte de las imágenes), esta opción de descargarlos no solo está permitida, sino documentada e incluso alentada por Wikimedia Foundation, la fundación que hay detrás de esta impresionante obra colaborativa.

Hay que tener en cuenta que Wikipedia, a pesar de su apariencia más superficial, no esta formada por un conjunto inmenso de documentos HTML estáticos, sino que se trata de un sistema gestor de contenidos o CMS, es decir una aplicación web que almacena y recupera información en una base de datos y a partir de ella genera dinámicamente las páginas web que visitamos con nuestro navegador. Aunque existen herramientas y técnicas para automatizar la descarga de los documentos (estáticos o dinámicos) de una web, debido a su impacto en los servidores (y más si se trata de unos con el volumen de datos y conexiones como los que alojan Wikipedia) no podrán utilizarse con Wikipedia. Pero hay una opción mejor para todos, ya que ellos mismos publican los volcados periódicos de su base de datos en un formato estándar (XML y SQL). Obviamente esto no le sirve al usuario final, que tendrá que recurrir a alguna de las transformaciones y/o recopilaciones que ciertos grupos de individuos se dedican a hacer a partir de estos volcados para facilitar su lectura, o bien con una navegador web estándar o con un visor específico.

Las alternativas más interesantes actualmente son las siguientes:
  • CDPedia: proyecto que recopila todo el texto y parte de las imágenes de la Wikipedia en español en formato HTML para su uso desde CD o DVD.
  • Kiwix: es una combinación de los datos en formato comprimido (ZIM) más un visor propio distribuido como software libre para distintos sistemas operativos. Las versiones en inglés y español datan del 2010 y la versión en inglés está limitada a 45.000 artículos.
  • Okawix: se trata de un visor que permite descargar el contenido de cualquier proyecto de Wikimedia (no solo Wikipedia) con o sin imágenes para su posterior lectura offline.
  • WikiTaxi: es una aplicación portable para Windows, gratuita para uso personal, que permite leer y buscar directamente en cualquiera de los volcados oficiales de la Wikipedia (no incluye imágenes).
En fin, parecen opciones más que suficientes (que además pueden complementarse) para preservar el conocimiento depositado por miles de voluntarios en Wikipedia y poder acceder al mismo sin depender de la disponibilidad de una conexión a Internet. De momento he empezado por descargar CDPedia; más información próximamente...

lunes, 31 de octubre de 2011

Internet, noticias y realidad del mundo

Ando tan liado últimamente con el trabajo y otros aspectos de mi "vida real" que apenas puedo atender el blog. Eso no quiere decir que no use Internet o que si la uso sea exclusivamente con fines laborales. Estoy dedicando bastante tiempo a informarme en la red sobre los acontecimientos de esta recién comenzada época de turbulencias e incertidumbre. Y lo que estoy viendo contrasta claramente con las noticias vertidas cotidianamente en los medios de comunicación de masas: televisión, radio y prensa, incluyendo las versiones digitales de los mismos.

Aunque suene a tópico, todos estos medios se revelan tras la comparación con otros alternativos (normalmente más profundos y plurales en sus análisis) como simples medios de entretenimiento, adoctrinamiento y desinformación de las masas. Si por ellos fuera, creería que no había crisis ni burbuja inmobiliaria en España pero que luego nos afectó una crisis internacional que es pasajera y ya se está solucionando gracias a la gestión de nuestros amados líderes a este y al otro lado del Atlántico. Creería que es un buen momento para comprar vivienda porque apenas va a bajar ya de precio, que el paro en España se va a solucionar recortando salarios y prestaciones sociales y que el próximo gobierno tiene estas y otras grandes ideas para la recuperación económica de este país cojonudo que tan solo atraviesa un mal bache por culpa de Zapatero. Vería diariamente una mezcla de sucesos sórdidos, hechos estrambóticos (atento a la sección ya fija de vídeos de YouTube), testimonios de como el clima afecta (en todas las estaciones, incansablemente) a las vidas de nuestros resignados conciudadanos, comunicados oficiales del gobierno y grandes empresas disfrazados de noticias y publicidad mal disimulada de productos relacionados con cada grupo mediatico (películas o series, discos de supuesta música, aparatitos de ocio deseables, etc). Y todo esto sin apenas vomitar, y eso que dejo aparte el universo paralelo del furgol y su supuesta épica galáctica...

Como ejercicio de aguafiestismo y antipatriotismo voy a enumerar unos cuantos medios alternativos a los que suelo acudir y que, mientras Internet siga vigilada pero abierta, pueden servirnos para cubrir todo ese territorio informativo que los medios dejan fuera de foco deliberadamente y cuyo conocimiento nos podría ayudar a orientarnos mejor en este mundo global y a minimizar el impacto de las grandes tormentas de mierda que se ciernen sobre nosotros lenta pero inexorablemente:
  • El Confidencial - Es lo más parecido a un "periódico digital español" que leo. Su pluralidad de enfoques lo hace, por compensación, más objetivo de lo habitual entre este tipo de medios. Cuenta con columnas de análisis económico muy recomendables: El disparate económico, Las perlas de Kike y Desde Londres.
  • Vozpopuli - Es el otro "periódico digital español" que visito desde hace unas semanas: alternativa de menor tamaño al anterior y que puede servir para complementarlo.
  • Rebelión - Como sugiere su nombre se trata de un medio alternativo situado a la izquierda del espectro político (y claro, lejos del PSOE). Cuenta además con traducciones de artículos de periodistas e intelectuales de renombre internacional.
  • Red Voltaire - Red de prensa no alineada dedicada a las relaciones internacionales.
  • Ácratas - Como indica su nombre se trata de un colectivo de bloggers con inclinaciones anarquistas que tratan, con un estilo que oscila entre el rigor, la especulación más atrevida (y normalmente informada) y la sátira más ácida todo tipo de cuestiones políticas nacionales e internacionales.
  • The Oil Crash - Un blog dedicado a la crisis energética que nos espera (y de la que aún no se habla) por un experto en la materia.
  • RT - Temas de actualidad en español desde un medio ruso; enfoques alternativos de las noticias internacionales (incluyendo las de España ;)
  • Asia Times - Medio digital chino (en Inglés) que examina temas de actualidad política, económica y geopolítica desde el punto de vista asiático; interesante conocer el enfoque de la próxima gran superpotencia.
  • Infowars - Medio independiente desde USA (en Inglés) para ver desde dentro la cara menos amable de este imperio en decadencia y de su relación con el exterior.
  • The Economic Collapse - Blog estadounidense (en Inglés) con interesantes y profundos análisis de la realidad económica internacional y con inquietantes previsiones que se van cumpliendo...

domingo, 18 de septiembre de 2011

Aniversario del 11-S

Hace unos días que se dieron por finalizados los actos conmemorativos de los atentados del 11 de Septiembre de 2001 en Estados Unidos. En todos los medios de comunicación tradicionales (televisión, radio y prensa) tuvimos la ración diaria de contenidos sobre el tema desde al menos una semana antes de la fatídica fecha, pues no en vano se trataba del 10º aniversario. Hubo informes y programas retrospectivos donde se pretendió analizar las consecuencias de aquellos atentados. Pero en ninguno de los medios que pude atender apareció ni la más mínima sombra de duda sobre las circunstancias que rodearon los atentados y su posterior investigación. Ninguna mención a cualquiera de las oscuras incógnitas que fueron surgiendo y alimentándose desde aquel trágico día (sobre todo fuera de los medios oficiales, claro).

No parece haberles sido demasiado difícil a estos medios oficiales silenciar, ignorar o desprestigiar a las distintas voces disonantes que, en Estados Unidos y fuera de ellos, han cuestionado la versión oficial de los hechos poniendo de manifiesto sus contradicciones y conclusiones absurdas. Desde el derrumbamiento de los edificios del World Trade Center (algo inaudito en rascacielos de acero y hormigón) incluyendo el improbable (y silenciado) caso del tercer edificio (el llamado WTC7) donde no impactó ningún avión, hasta el misterioso avión "sin alas" que atentó contra el Pentágono. A la mayoría de estos análisis y denuncias se les ha colgado la socorrida etiqueta de "teorías conspirativas" y se han metido en el mismo saco con otras más serias y autorizadas como la de los 1500 "arquitectos e ingenieros por la verdad sobre el 11S" que piden una nueva comisión de investigación independiente.

Dejando a un lado los aspectos más técnicos que no parecen encajar con el informe oficial, no  estaría mal que el ciudadano medio pudiera ver en su canal de TV favorito un documental como "Loose Change", donde se repasan todas las contradicciones del asunto aportando además numerosas entrevistas con testigos oculares de los hechos. Pero no, la excusa será que es un documental hecho por aficionados y que no está a la altura de los contenidos serios de una cadena televisiva, o peor, será despreciado como la obra de locos conspiranoicos. Menos mal que internet (aún) permite acceder a análisis alternativos del mundo en que vivimos. Aun así, uno fantasea a veces con ver publicados en prensa de tirada nacional artículos como este para observar qué pasa; quizá empezaría a resquebrajarse el decorado...

miércoles, 31 de agosto de 2011

Cola-blind, mi cubata tuneado

Para acabar las vacaciones y retomar el blog de forma poco traumática voy a poner la receta para un combinado (cocktail, nada de deportes ;) que he ideado y perfeccionado este verano. En realidad no es más que una variante del Cuba libre (ron con refresco de cola) que casi todo el mundo parece estar bebiendo desde hace años (bueno, ahora parece que empieza la era (o mejor: nuevo ciclo) del gin & tonic...). Un conocido me sirvió uno aderezado con canela molida hace unos meses y me gustó el toque. Poco tiempo después descubrí por casualidad que es un aditivo habitual en ciertos lugares y ambientes. Mi aportación ha sido quitar algo de ron y añadir un par de nuevos ingredientes que creo armonizan bien con el resto. La cosa queda más o menos así:

  • 40 ml. de ron añejo
  • 20 ml. de vermut rojo
  • 20 ml. de licor triple sec (Cointreau es el más famoso)
  • una pizca de canela molida
  • una rodaja de naranja (o limón)
  • refresco de cola




Dependiendo del gusto de cada cual se puede ajustar el dulzor de la mezcla jugando con la cantidad de ron y/o balanceando la proporción de vermut y Cointreau (p.e. 25-15 para que esté menos dulce/sepa menos a naranja). En cualquier caso es importante no pasarse con la canela. La preparación ideal sería en vaso grande (mejor tipo sidra) con tres o cuatro cubos de hielo macizos. Primero se echan las bebidas alcohólicas y la canela y se remueven junto al hielo enfriando de paso el vaso. Por último se rellena con el refresco de cola, se remueve un poco y se adorna con la rodaja de naranja. Para darle un toque más exótico y satisfacer a los más golosos se puede rebozar el borde del vaso con azúcar moreno. ¡Salud!

domingo, 24 de julio de 2011

Actualizar mapas del TOMTOM

Hace una semana me decidí al fin a actualizar mi navegador GPS (marca TOMTOM, modelo One con mapas de Europa Occidental) para tenerlo a punto para los viajes de este verano. Teniendo en cuenta que lo compré de oferta (unos 80 euros) hace un año cuando el modelo ya tenía un año de antigüedad (de ahí la oferta) y que ya no me quedaban actualizaciones de mapas gratuitas -la única que tenía la apliqué antes de salir de viaje-, me dispuse a valorar las promociones recibidas por e-mail con la intención de "hacer las cosas bien". Mi sorpresa vino al hacer números y comprobar lo caro que resulta mantener actualizados los dichosos mapas más allá del primer año de uso: más de 60 euros por un par de actualizaciones extras durante un periodo de doce meses. Si como yo, lo usas principalmente en un par de viajes vacacionales cada año pues te sale a unos 30 euros el viaje, eso habiendo pagado ya el aparato y las correspondientes actualizaciones de su software (que claro, no incluyen los mapas como podría haber sabido leyendo la "letra pequeña").



Por suerte, como en tantas otras tecnologías de consumo donde se imponen límites artificiales al uso que el propietario puede hacer de ellas, han surgido en internet comunidades virtuales de expertos en sistemas GPS que han destripado los cacharritos para ver cómo funcionan y poder hacer el mantenimiento o incluso las mejoras que crean oportunas. Tras unos minutos de búsqueda encontré una conveniente página de Vagos.es donde se proporcionaba el material y las instrucciones para actualizar los mapas en navegadores TOMTOM. Por desgracia no todos los enlaces de descarga estaban disponibles y además tropecé con algunas dudas y limitaciones técnicas que me llevó algún tiempo solucionar. Como creo que mi experiencia, aunque limitada, podría ser de alguna utilidad a novatos en el tema, me dispongo a repasar y/o remarcar algunas cuestiones importantes sobre el procedimiento a seguir a la hora de actualizar los mapas de este tipo de navegadores GPS de forma que complemente la información del post de Vagos enlazado más arriba:
  1. Como siempre en estos casos, es muy importante hacer, antes de cualquier manipulación, una copia de seguridad del software del dispositivo. Esta podemos hacerla con la aplicación de gestión del dispositivo (TOMTOM Home) o bien de forma manual copiando el contenido de la unidad de disco (llamada en mi aparato "INTERNAL") que nos aparecerá en el explorador de Windows al conectar vía USB el aparato y darle al botón de encendido.
  2. Conviene aplicar desde TTHome (estando conectados a internet y registrándonos en la web de TOMTOM) todas las actualizaciones y correcciones gratuitas disponibles. Si esto incluye la actualización de mapas entonces no tendrá sentido (aun) continuar con los pasos siguientes.
  3. Si estamos decididos a actualizar los mapas de forma extraoficial (gratuita pero sin ninguna garantía) lo primero es averiguar la versión del navcore que usa nuestro aparato (el programa de navegación, lo verdaderamente importante, y no el modelo ni el diseño del aparatito). Esto podemos hacerlo fácilmente sin más que encender el dispositivo y mirar en la pantalla junto al indicador de batería y los satélites disponibles. Lo siguiente es parchearlo, es decir, sustituir el archivo correspondiente (en mi caso llamado PNDNavigator) ubicado en el directorio raíz de la unidad USB por una copia modificada de esa misma versión que podemos descargar desde la sección "Herramientas a utilizar" del citado post. Esto supongo que es necesario para que el software no compruebe la autenticidad de los mapas que se instalarán después.
  4. Antes de descargar (puede que tengamos que buscar por otro lado, ya que en el post de Vagos fallan bastantes enlaces de descarga) el mapa tenemos que averiguar la versión del mismo que nos interesa obtener. En principio se supone que será la versión más reciente disponible del mapa instalado en nuestro navegador (en mi caso Western Europe 870.3417) pero una limitación importante a comprobar antes es el tamaño del mapa a descargar y el espacio disponible en la unidad de almacenamiento interna del dispositivo. En mi caso el mapa solamente ya ocupaba 1 GB que es el total de espacio en la unidad "INTERNAL" por lo que no cogería en la misma y tendría que usar una versión más antigua del mismo (que ocupe menos espacio) o bien otro mapa más actual pero más pequeño, por ejemplo Iberia 870.3417, que es el que instalé finalmente. Además deberemos consultar en la tabla cortesía de Ingazu, el autor del post de Vagos, la compatibilidad entre versiones del navcore y las versiones de los distintos mapas.
  5. Una vez descargados los archivos del mapa elegido, se copian dentro de su correspondiente carpeta (llamada por ejemplo "Iberia" o "Western_Europe") al directorio raíz de la unidad interna. Puede que antes debamos borrar la carpeta del mapa instalado actualmente para hacer espacio para el nuevo.
  6. Una vez copiados los archivos del mapa al dispositivo, hay que activarlos en el navegador GPS pero desde fuera del dispositivo. Para ello podemos usar el programa DrClone que se comunica con el dispositivo vía USB y nos permitirá elegir el mapa (entre los detectados) a activar. Es conveniente antes de ejecutar dicho programa actualizarle en la subcarpeta bin el archivo meta.txt con el descargado desde la sección de herramientas del post de Vagos. Eso es para que pueda activar de forma adecuada los mapas más recientes. Para obtener información más detallada del uso del programa tenemos un pequeño tutorial en formato .DOC en la citada sección de herramientas del post.
Si se han (entendido y) realizado correctamente las acciones anteriores deberíamos tener nuevos mapas funcionando sin problemas en nuestro navegador, como podremos comprobar tras apagarlo, desconectarlo del PC y encenderlo normalmente. Si queremos conocer más a fondo este tipo de navegadores GPS podemos pasarnos por aquí y leer los tutoriales que nos interesen. Por ejemplo, para profundizar un poco en los aspectos técnicos del parcheo y actualización de los navegadores. Con la ayuda de la comunidad, un poco de esfuerzo por nuestra parte y algo de suerte, podremos amortizar completamente nuestro navegador GPS usándolo unos años más con mapas actualizados y de paso evitar perdernos ahí fuera ;-)

viernes, 22 de julio de 2011

Algunos inventos chinos

Recientemente recomendaba el libro 1001 Inventions that changed the world. Creo que comentaba mi intención de extraer más adelante del mismo algunas listas de invenciones por su tipo o procedencia. Pues voy a empezar con una muestra de tecnologías que debemos a los chinos, esos simpáticos orientales que están explotando a tope las ambiguas reglas del juego capitalista en esta era de la globalización. De sobras conocida es su capacidad para copiar, asimilar y producir a bajo coste casi cualquier tecnología surgida en los estados occidentales más prósperos. Sin embargo este extenso y poblado país no siempre ha ido a remolque de otras naciones más avanzadas; la República Popular China no es más que la última encarnación de una de las civilizaciones más antiguas del mundo que todavía perduran y, como prueba la siguiente relación cronológica, cuna durante muchos siglos de importantes avances tecnológicos:
  • Campana (año 3000 A.C.)
  • Tinta
  • Parasol / paraguas
  • Puente flotante
  • Vacunación
  • Cometa
  • Ballesta
  • Brújula
  • Altos hornos
  • Estribos
  • Silla de montar
  • Arado de vertedera
  • Molino de viento
  • Puente colgante
  • Papel
  • Carretilla
  • Trebuchet (un tipo de catapulta, sin traducción)
  • Collera o collar de caballo
  • Papel higiénico
  • Pólvora
  • Billete (papel moneda)
  • Xilografía (impresión con plancha de madera)
  • Cohete
  • Canal de esclusas
  • Tipos móviles (tipografía)
  • Torre de reloj
  • Cadena de transmisión
  • Cañón
  • Fuegos artificiales
  • Mina terrestre
  • Mosquete
  • Cepillo de dientes (año 1498)

miércoles, 29 de junio de 2011

1001 inventos que cambiaron el mundo

Así se titula un libro que he empezado a leer recientemente aprovechando la llegada del verano (y con él de más tiempo libre). Es el equivalente tecnológico de otros libros más conocidos (e igualmente recomendables) como "1001 películas que hay que ver antes de morir" y "1001 discos que hay que escuchar antes de morir". Por desgracia el de los inventos no lo he encontrado publicado en español y debido al interés que sentía por el tema no esperé a que alguien se decida a traducirlo y lo compré en Amazon.co.uk (ahorrando de paso unos cuantos euros, aunque claro, a cambio de un mayor esfuerzo en la lectura).



El libro, como bien indica su título, es un compendio, seleccionado por un equipo de más de 50 personas entendidas en diversas materias, de los mil inventos más importantes de la historia de la humanidad, desde la rueda al reproductor MP3, pasando por todo tipo de descubrimientos científicos y tecnológicos que han contribuido al desarrollo del mundo tal y como lo conocemos. La relación de inventos sigue un orden cronológico y está dividida en 8 secciones: El mundo antiguo, Desde Roma a la Revolución, La era industrial, La era de los imperios, Nacimiento de la edad moderna, Guerra y paz, Hacia lo global y La era de internet.

A cada invento se le dedica un mínimo de media página de texto con una descripción de las circunstancias que condujeron a la invención del mismo, acompañada siempre de la fecha (exacta o aproximada) de esta y de su relación con otros inventos. Muchos vienen acompañados además de fotografías o ilustraciones que muestran su aspecto típico.

El libro cuenta además con un glosario de términos técnicos y dos índices (uno de los inventos y otro de los inventores y sus creaciones) que mejoran sin duda su utilidad como obra de consulta y/o lectura esporádica. Francamente recomendable para cualquiera interesado en la historia de la ciencia y la tecnología.


martes, 21 de junio de 2011

Nuevas miradas sobre la crisis

Como hace tiempo que no publico nada en relación a la crisis y esta sigue su evolución hacia una auténtica hecatombe socio-económica a escala mundial, voy a insertar una breve recomendación sobre un par de documentales que han tenido cierta difusión en internet últimamente y que creo aportan una mirada alternativa, cada vez más necesaria, a los acontecimientos que han dado lugar a ésta:
  • Inside Job (Trabajo interno en español) es una producción americana del año pasado que, a pesar de haber recibido un Oscar recientemente, constituye una valioso documento gráfico para entender la crisis económica desatada desde 2007 en USA y Europa, y cuyo origen resume su director Charles H. Ferguson como "la corrupción sistémica de los Estados Unidos por parte de la industria de los servicios financieros". Cuenta con una sólida base de investigación y documentación periodística, así como con numerosas entrevistas (o invitaciones rechazadas a hacerlas) a muchos actores y testigos directos de los principales eventos. Su estructura narrativa consta de cinco partes: Cómo llegamos hasta aquí, La burbuja, La crisis, Responsabilidades y Dónde estamos ahora. Dura casi dos horas y es muy recomendable. Puede encontrarse para descargar en versión original subtitulada buscando en Google.
  • Debtocracy (Deudocracia en español) es más reciente (se estrenó hace un par de meses) y se trata de una producción independiente surgida en Grecia para explicar la situación en la que se encuentra el país y, sobre todo, cómo ha llegado a ella y qué debería hacer a continuación. El documental rastrea, en una hora y cuarto, los orígenes de la deuda griega, establece paralelismos con la crisis argentina de 2001 y cómo el rescate del FMI sólo sirvió para empeorar las cosas, y propone una salida alternativa al estilo de la emprendida por Ecuador en su propia crisis: que un comité neutral se encargue de auditar la deuda para determinar si se trata, al menos en parte, de "deuda odiosa" y, si es así, eximir de su pago al pueblo. Dejando de un lado otros motivos menos importantes, es un documental que todo habitante de Hispanistán debería ver por el mero hecho de funcionar como una bola de cristal donde asomarnos al posible futuro que nos espera si no hacemos pronto la transición de indignados flower power style a cabreados greek unemployed style. La película ha sido publicada con licencia Creative Commons en internet y puede verse aquí en versión original, pudiendo cambiar los subtítulos al español.

jueves, 16 de junio de 2011

Proyecto musical Colorblind

Aprovechando el reciente interés de un viejo amigo del sistema Vega, acabo de publicar en una sección aparte un par de maquetas en CD que recopilan los temas musicales que grabé bajo el nombre Colorblind entre los años 2003 y 2007 en los diversos dormitorios que me sirvieron de refugio a lo largo de aquel periodo. En total se trata de nueve canciones propias (ocho instrumentales y una cantada) y una versión acústica de un tema de Jay Aston.



En lo referente al aspecto técnico, comentar que los temas se grabaron en dos PCs clónicos de la época con Windows XP y con tarjetas de sonido Sound Blaster Live 1024 (el primer CD) y M-Audio Audiophile 2496 (el segundo). Los instrumentos "físicos" usados fueron una vieja guitarra eléctrica Ibanez, un modesto bajo Harley Benton de cinco cuerdas y una moderna guitarra Variax 700 de Line6, todos pasados a través del popular pre-amplificador con emulación de válvulas V-Amp2 de Behringer. Las baterías y percusiones, algunos bajos y el resto de instrumentos (pianos, órganos, cuerdas, etc.) fueron creados mediante sampleadores y sintetizadores software y disparados/interpretados usando MIDI y un teclado USB de Evolution. Por último, la grabación, mezcla y producción de los temas se hizo principalmente desde el secuenciador Cakewalk SONAR.

En cuanto a la música en sí, todo empezó con unas pruebas para grabar algunos de los fraseos de guitarra que se me habían ocurrido improvisando en mi tiempo libre tras comprar el V-Amp2. Como unos años antes ya había hecho mis pinitos con secuenciadores MIDI/Audio una cosa llevó a la otra y acabé haciendo arreglos musicales más complejos aprovechando la potencia de los PCs del momento y la estabilidad de Windows XP (al menos frente a Windows 98 ;) a la hora de grabar y reproducir audio junto a sintetizadores y efectos software. Intente mezclar distintos sonidos y estilos sin llegar a copiar (al menos de forma consciente) a ninguno de mis grupos favoritos. El resultado es heterogéneo, además de por la extensión en el tiempo de todo el asunto (con los consiguientes parones y arranques), debido a mis evidentes limitaciones musicales y técnicas, algunas de las cuales logré minimizar relativamente en el proceso. Es este proceso lo realmente importante para mí: el haber podido dar forma, con mayor o menor acierto, a las ideas musicales que tenía e iban surgiendo; el ver a dónde me llevaban; el análisis y aprendizaje requerido, el solucionar los problemas aparecidos dando forma a pasajes (a veces incluso paisajes ;) sonoros y que al final, como ventaja adicional, queden pruebas palpables (aunque no sean mas que secuencias de bits) de aquel proyecto personal; una especie de fotografías o souvenirs audibles de aquel viaje en solitario que hice intermitentemente durante unos años desde la intimidad de mi dormitorio y que quizá puedan ser de interés a alguien más ahí fuera...

viernes, 27 de mayo de 2011

Segunda versión de GRUBack

Hace poco más de un año que publiqué la primera versión beta de GRUBack, un script para recuperar sin salir de Windows el menú de arranque de GRUB en caso de que lo perdamos al tener que reinstalar o reparar el sistema operativo de Microsoft.

Ahora presento una revisión, la segunda versión beta, que lo hace compatible con la distribución Ubuntu 11.04 aparecida hace un mes y cuya versión de GRUB, la 1.99, tenía un poco despistado al GRUBack original.

Espero que no falle demasiado... En cualquier caso, los usuarios de otras distribuciones de Linux (y más si éstas ni siquiera se basan en Debian) deberían probarlo sólo si están en situación de crear el disquete de rescate desde GRUBack o si no les asusta la idea de tener que recuperar a mano GRUB o incluso la tabla de particiones (para esto podrían necesitar TestDisk). Es lo que tiene la "cirujía de MBR", y más si se hace en una habitación poco iluminada y usando un cuchillo de cocina en lugar de un bisturí ;-)

martes, 24 de mayo de 2011

Disponibilidad de vídeos de YouTube

Hoy voy a compartir otro de los scripts Python que he programado recientemente y que creo podría ser de utilidad a alguien ahí fuera. El del post anterior servía para mantener un blog (basado en Blogger) libre de enlaces externos "caducados". Este también realiza tareas de mantenimiento web, pero esta vez centrándose en los vídeos que recopilamos en YouTube en forma de listas de reproducción (o playlists). Cualquiera que haya usado este servicio de compartición de vídeos y haya guardado los enlaces de sus vídeos favoritos, o los haya organizado mediante el uso de playlists, habrá experimentado la desaparición, transcurrido cierto tiempo, de algunos de los vídeos. Esta situación puede deberse a distintos motivos: problemas de copyright, cancelación de la cuenta del autor que los subió, quejas de usuarios porque el contenido no era "adecuado", etc. El caso es que cuando uno recopila cierto número de vídeos de YouTube, las probabilidades de que algunos de estos dejen de estar disponibles aumentan con el tiempo (y claro, con el número de vídeos). Sin ir más lejos, en la lista de reproducción que comparto en este blog (abajo a la derecha) y que contiene un total de 100 vídeos, ya han desaparecido 2 de ellos desde la última revisión hará dos o tres semanas.

YouTube PlayList ChecKer, es el programa que permite automatizar la comprobación de la disponibilidad de los vídeos de una o más listas de reproducción, pasándole en línea de comandos los URLs correspondientes (que pueden obtenerse en el campo titulado "URL" situado en la parte superior de la vista de cuadrícula de cada playlist). En principio nos muestra en pantalla el número y URL de aquellos vídeos que ya no estén disponibles. Podemos indicarle (con la opción -t) que también muestre el título del vídeo o hacer que liste (con la opción -l) todos los vídeos (con o sin título) sin comprobar su estado. En fin, las opciones más útiles para mantener y/o extraer de forma fácil (y textual, combinable con otros comandos ;) los enlaces a los vídeos de nuestras listas de reproducción...

miércoles, 18 de mayo de 2011

Comprobando los enlaces rotos del blog

Acabo de reparar el puñado de enlaces rotos (seis normales más un "expediente X") que se habían ido produciendo inadvertidamente en el blog con el paso del tiempo. Para descubrir estos hipervínculos que por un motivo u otro han dejado de funcionar, he utilizado un script programado recientemente en Python que además me ha servido para iniciarme en los rudimentos de dicho lenguaje.

Lo he bautizado como BloGger Broken Link ChecKer y se trata de un sencillo programa de línea de comandos que, a partir de la dirección base de un blog, recorrerá todos sus posts intentando seguir los hipervínculos y dará parte de aquellos que tengan algún problema. No es más que una especialización de las arañas que se vienen usando desde los comienzos de la WWW para la indexación y el mantenimiento de los sitios web. En este caso concreto, limitado a blogs basados en Blogger (y que no hayan sido "tuneados" con plantillas que cambien la forma estándar de organizar la información) y a los enlaces externos (los que apuntan a sitios web ajenos al blog original y a los servicios de Blogger) que se encuentren en el cuerpo de los artículos publicados en los mismos.

Aunque supongo que existirán mejores herramientas para resolver este mismo tipo de problema, la mía es fácil de usar y podría adaptarse a otras necesidades particulares sin demasiado esfuerzo. Espero que sea útil a alguno de los bloggers que lean esto ;-)

jueves, 28 de abril de 2011

Automatizando descargas de Megaupload

Hace ya unos cuantos meses que dejó de funcionar el shell script que publiqué en los inicios del blog para automatizar descargas de Rapidshare. Esto se debe a la remodelación de dicho sitio web y en concreto al hecho de que ahora se use JavaScript para generar los enlaces de descarga.

Por suerte aún quedan servicios de descarga directa de archivos que además de ser muy populares, funcionan bien y todavía no han incorporado mecanismos para obstaculizar nuestros "planes de automatización". Uno de ellos es Megaupload, quizá el mejor en su categoría, por lo que le he dedicado otro shell script llamado mudl para poder encolar nuestras descargas gratuitas de Megaupload desde la consola usando un archivo de texto con los URLs. Es una solución quick and dirty pero puede sernos útil en servidores sin entorno gráfico o en cualquier sistema Linux donde no podamos tirar de JDownloader (la solución ideal, multiplataforma, multiservidor y con soporte de tiempos de espera dinámicos, cuentas premium, CAPTCHAs y un largo etcétera).

Espero que este tipo de soluciones lo-tech se sigan programando, tuneando y compartiendo para facilitarnos un poco la vida unos a otros, al menos en su dimensión digital ;-)

NOTA: los creadores de Megaupload introdujeron posteriormente cambios en el código de las páginas web que suponen un obstáculo insalvable para el script, que YA NO FUNCIONA, aunque puede servir como ejemplo para tareas similares, por lo que mantengo el enlace.

martes, 26 de abril de 2011

Vigilar precios de FNAC

Una de las ventajas de comprar en tiendas online (además de la comodidad, la gran cantidad de artículos disponibles y conocer la valoración que sobre estos hacen los compradores) es que suelen ofrecer descuentos fuera de los típicos periodos de rebajas. El problema es enterarse de estas ofertas, ya que pocas tiendas te van a proporcionar un servicio de notificación de sus bajadas de precios sobre artículos concretos, pues significaría el aplazamiento de muchas compras y unos menores ingresos por los precios más bajos.

Por suerte, existen servicios no oficiales de seguimiento de precios (price tracking) para las tiendas virtuales más importantes, por ejemplo camelcamelcamel para Amazon. Este cuenta además con un complemento para Firefox que facilita ver los históricos de precios al navegar por las tiendas Amazon y permite programar alertas sobre el artículo deseado vía e-mail o Twitter. Es un servicio gratuito que, unido a los ya de por sí competitivos precios de Amazon (y en el caso de Amazon.co.uk al envío gratuito a España a partir de 25 libras), te puede ahorrar bastante dinero en tus compras habituales.

La mala noticia es que, fuera de la Internet anglosajona, apenas existen servicios de este tipo. Pero si eres usuario de Linux y te gusta el "bricolaje software", no todo está perdido: con unos cuantos programas de línea de comandos y la necesaria cinta adhesiva marca BASH, puedes montarte tus propios artefactos caseros de seguimiento de precios para las tiendas que te interesen...

Como ejemplo presento la primera versión de mi vigila-fnac, un shell script que permite monitorizar los precios de nuestros artículos favoritos en la tienda online de la famosa cadena francesa. Unas instrucciones de uso:
  1. Descargar el script, descomprimirlo y copiarlo en el subdirectorio ~/bin del usuario que quiera usarlo dándole después permisos de ejecución.
  2. Crear en el directorio personal del usuario un nuevo archivo llamado fnac_items.txt y pegar (uno por línea) los links de los distintos artículos de la tienda web en los que estemos interesados.
  3. Preparar la ejecución del script en el inicio de sesión del usuario. En el caso de GNOME puede hacerse desde el menú Sistema-Preferencias-Aplicaciones al inicio. El script ya se encargará internamente de realizar sus comprobaciones sólo una vez al día.
  4. Esperar a que se produzca alguna bajada de precios en los artículos "vigilados". Esta situación se notificará mediante la creación de un documento HTML en el escritorio del usuario, que contendrá la lista de artículos rebajados con sus precios y enlaces a la tienda.
Un par de observaciones:
  • Antes de proceder con el paso número 3 quizá convenga ejecutar a mano desde una consola el script y echar un vistazo al log que genera en el directorio del usuario con el nombre .fnac_errors.txt para comprobar que todo va bien. Una vez se genere el primer documento HTML de ofertas podremos usar el link que contiene para examinar este registro de eventos de forma más cómoda.
  • Hay que llevar cuidado al añadir nuevos links de artículos al archivo fnac_items.txt para no estropear las líneas existentes, que contienen, para cada URL, los distintos precios que ha tenido el artículo correspondiente desde que fue añadido.
Por último comentar la paradójica situación descubierta al observar los precios en el citado archivo: los precios no sólo tienden a bajar con el paso del tiempo, con frecuencia suben, a veces para bajarlos de nuevo más adelante y poder presumir de descuentos sin poner demasiado de su parte. Una forma curiosa de comprobar lo extendida que está entre las empresas que venden sus servicios y productos en este país la costumbre de tomarle el pelo al consumidor. Por eso, ¡feliz y justo ahorro!

jueves, 31 de marzo de 2011

Detectando intrusos en tu WiFi (y II)

Hace unos meses publicaba un shell script para vigilar tu red inalámbrica y avisarte de cambios en el número de PCs conectados (y por tanto de posibles intrusiones). Lo he modificado para que, además de avisar mediante ventanas emergentes al usuario del PC donde se ejecute, también sea capaz de enviar los avisos por correo electrónico, por si no estamos en casa. La idea básica del envío de e-mails de forma automatizada en Linux la comentaba recientemente y lo único que he hecho ha sido añadir al script las variables, comprobaciones e instrucciones necesarias para hacer uso de la misma. El archivo deberá editarse para adaptarlo a nuestra situación, incluyendo los datos de la cuenta de Gmail que el programa mailx usará para hacer el envío. Si este cliente de correo no está instalado, o la dirección de e-mail del destinatario no ha sido especificada, las notificaciones se harán como hasta ahora, en pantalla del PC local.

Antes de poderse ejecutar, el script deberá copiarse a /usr/local/bin con el nombre vigila-wifi (sustituyendo, si procede, a la versión anterior) y tener permisos de ejecución. Además requerirá el uso de sudo para que pueda comprobar la red correctamente. Por lo demás, espero haber hecho más útil este sencillo sistema de detección de intrusiones, que puede descargarse desde este enlace.

domingo, 27 de marzo de 2011

La épica de King Crimson

Puede decirse, sin riesgo de caer en el tópico, que King Crimson es un grupo musical bastante peculiar. Desde 1969 hasta nuestros días ha existido de forma intermitente, encarnado en diversas formaciones de talentosos músicos aglutinadas en torno a Robert Fripp, su alma mater. Cada nueva versión de King Crimson ha intentado experimentar y lograr una evolución, una progresión que otras bandas del llamado género progresivo traicionan tarde o temprano para anclarse en su sonido característico. Eso hace que escuchar y apreciar la obra de King Crimson no sea tarea fácil. Sus múltiples influencias musicales, su nada tímida experimentación y su determinación a no estancarse en un sonido y tratar de adaptarse a los nuevos tiempos (lo cual no quiere decir a las modas) ponen a prueba al oyente. Puede gustarte mucho una canción o incluso un disco completo y dejarte indiferente o hasta producirte cierto desagrado otro o buena parte de otro. Y todo ello sin dejar de reconocerle mérito a la música y de intuir su procedencia, una entidad propia que trasciende los músicos que integren la banda en cada momento.

La recopilación que ha motivado el post recoge una docena de canciones extraídas de cinco de los seis primeros LPs de la banda, publicados entre 1969 y 1974. Lo que tienen en común todas ellas es cierto aire épico o al menos clásico, resultado de una combinación de factores: estructura, instrumentación, melodía, armonía, letra, etc. Creo que, en general, todas son relativamente fáciles de escuchar, al menos en comparación con una gran parte de la producción musical del grupo. Mi intención era aportar en un CD las suficientes pruebas sonoras de que King Crimson, además de componer, interpretar y producir música destacable por su originalidad, intelectualidad y virtuosismo, también fueron capaces de crear música bonita, emotiva, e incluso épica, lo cual me parece (cada vez más) lo verdaderamente importante. Espero haberlo conseguido...

Los títulos de las canciones seleccionadas:
  1. "The court of the Crimson King"
  2. "I talk to the wind"
  3. "Epitaph"
  4. "Moonchild"
  5. "Cadence and cascade"
  6. "In the wake of Poseidon"
  7. "Cirkus"
  8. "Lady of the dancing water"
  9. "Prelude: song of the gulls"
  10. "The night watch"
  11. "Fallen angel"
  12. "Starless"
  13. "Moonchild"
Como (casi) siempre, un enlace a la recopilación en formato MP3 por cuestiones de compatibilidad y otro a la versión en Ogg Vorbis, formato abierto de calidad algo mayor a igual tamaño y más recomendable para conseguir una reproducción sin saltos entre pistas (para esto ayuda usar reproductores como foobar2000). Que aproveche ;-)

miércoles, 9 de marzo de 2011

El manual de Linux

Con Linux, como digno descendiente (libre) de UNIX que es, viene incluido un manual. Es un manual electrónico, al alcance del usuario con tan solo pulsar algunas teclas desde cualquier terminal. No es simplemente una variante más extensa y mejor presentada de la ayuda básica que los propios programas proporcionan al pasarle el parámetro --help. Es algo más, una fuente actualizada, completa y autorizada sobre el funcionamiento del sistema; no sólo de sus programas de usuario, también de sus herramientas de administración, de sus archivos de configuración e incluso de funciones y llamadas al sistema de interés para el programador.

El acceso al manual se consigue utilizando el comando:

$ man <nombre_del_programa_o_elemento>

Para aprender sobre el propio comando man teclearíamos:

$ man man

En esas páginas podemos leer algunas cosas muy útiles sobre el propio uso de este manual electrónico. Por ejemplo que el manual se divide en distintas secciones o categorías de información:
  1. Programas ejecutables y guiones del intérprete de órdenes (shellscripts)
  2. Llamadas del sistema (funciones ofrecidas por el núcleo)
  3. Llamadas de la biblioteca (funciones contenidas en las bibliotecas del sistema)
  4. Ficheros especiales (se encuentran generalmente en /dev)
  5. Formatos de ficheros y convenios (por ejemplo /etc/passwd)
  6. Juegos
  7. Paquetes de macros y convenios (por ejemplo man, groff)
  8. Órdenes de administración del sistema (generalmente solo son para root)
Cada página de manual presenta la información organizada en una serie de apartados:
  • NAME - El nombre del comando o elemento seguido por una breve descripción.
  • SYNOPSIS - Un resumen de cómo usarlo y de las opciones que permite.
  • DESCRIPTION - Una descripción más detallada del funcionamiento.
  • EXAMPLES - Algun ejemplo de uso típico.
  • SEE ALSO - Referencia a otros programas o elementos relacionados.
Cuando solicitamos la página de manual de un elemento sin especificar nada más, se nos mostrará la primera página que se encuentre para dicho elemento buscando, por orden numérico, en las distintas secciones del manual. Este funcionamiento podría hacer que dejáramos de ver cierta información de interés por existir distintos elementos con el mismo nombre clasificados en distintas secciones del manual. Por ejemplo, para acceder al manual del comando passwd, basta con teclear:

$ man passwd

Pero si lo que buscamos es información sobre el archivo de configuración estándar passwd (almacenado en /etc) deberíamos indicar la sección del manual donde se encuentran esas páginas -en este caso la quinta-, ya que de lo contrario nos mostraría la primera que encuentre:

$ man 5 passwd

Como a priori no tenemos por qué saber si existen elementos con el mismo nombre en distintas secciones del manual, para que el sistema nos permita ver todas las páginas usaríamos:

$ man -a passwd

Así cuando cerremos la página pulsando la tecla q el programa man nos permitirá navegar por las siguientes páginas encontradas (si las hubiera).

Otro parámetro muy útil del programa man, es el que nos permite buscar aquellas páginas de manual que contengan en su descripción (apartado NAME) cierta palabra. Por ejemplo, para buscar todos los programas relacionados con comparación de datos usaría:

$ man -k compare

Hay que tener en cuenta que si se usan dos o más palabras clave se realiza un OR lógico entre ellas. Si lo que queremos es hacer un AND para "refinar" una búsqueda, por ejemplo buscando compare files, podríamos hacerlo filtrando con grep así:

$ man -k compare | grep files

Cuando estemos consultando páginas de manual en pantalla, podremos, además de movernos por el documento electrónico usando las teclas correspondientes (flechas arriba y abajo, avanza página y retrocede página, etc.) buscar texto en las mismas usando la funcionalidad correspondiente del paginador que use el programa man. En el caso de less (el más habitual) lo haríamos tecleando /palabra_a_buscar y pulsando Enter. Cada ocurrencia de la cadena buscada quedará resaltada y si además queremos ir posicionándonos sobre las mismas iremos pulsando la tecla n (de next) .

Si lo único que queremos saber es para qué sirve cierto programa, por ejemplo porque hemos visto su archivo ejecutable al listar el contenido de un directorio como /bin, podemos usar man con la opción -f, o mejor, el programa whatis que hace lo mismo y es más fácil de recordar:

$ whatis nc

Para ver la descripción de cada programa contenido en un directorio de ejecutables como /bin podemos combinar los siguientes comandos:

$ whatis $(ls -1 /bin)

O mejor aún, si queremos ver la descripción de todos los programas que podemos ejecutar podemos pasarle a bash el siguiente bucle en una sola línea:

$ for d in $(echo $PATH|tr : ' ');do whatis $(ls -1 $d);done|less

Y estirando un poco más el asunto podemos generar un listado con la descripción de todos los programas ordenados alfabéticamente así:

for d in $(echo $PATH|tr : ' ');do whatis $(ls -1 $d);done|sort > lista_programas.txt

Otra forma interesante de acceder a la información del manual puede ser ojear los elementos para los que existen páginas en éste, una buena forma para descubrir cosas nuevas (de las cuales podríamos desconocer incluso su existencia). En el caso de los programas y comandos nos podrían servir los dos trucos anteriores, pero si lo que nos interesan son los archivos de configuración y formatos estándares (sección 5) podríamos asomarnos al directorio donde se guardan de la siguiente forma:

$ ls /usr/share/man/man5

Para ver la descripción que el manual proporciona para cada elemento podríamos usar:

$ whatis $(ls -1 /usr/share/man/man5 | sed 's/.5.gz//')

Cambiando el número 5 por el de la sección que nos interese ojearíamos los elementos para los que existen páginas en esa sección del manual. Algunos ejemplos de información útil en la sección 7 son los siguientes:
  • Sobre la jerarquía del sistema de archivos: man hier
  • Sobre la codificación ASCII: man ascii
  • Sobre la codificación ISO 8859-1 (o Latin-1): man latin1
  • Sobre la codificación UTF-8 (Unicode): man utf8
Por último, una de las formas en que podríamos convertir páginas de manual especialmente densas o extensas (como la de bash) a formato PDF para su posterior impresión:

$ man -t bash | ps2pdf - bash_manual.pdf

jueves, 24 de febrero de 2011

Aprendiendo a programar con Python

Python es un lenguaje de programación de alto nivel, interpretado y multiplataforma. Cuenta con numerosas ventajas como tener una sintaxis clara y concisa, ser software libre, ser un lenguaje muy versátil (prácticamente de propósito general) con una completa biblioteca estándar, poderse usar tanto de forma estructurada como orientada a objetos, para aplicaciones de consola (incluyendo pequeños scripts) o para aplicaciones con GUI, para aplicaciones de escritorio o para aplicaciones web... Además, si usas Linux, tienes la suerte de tenerlo ya instalado, ya que cada vez más software de este sistema operativo está escrito en Python.

Nombrado así en honor del grupo de cómicos Monty Python, el lenguaje que nos ocupa no es ni mucho menos nuevo. Guido van Rossum, su creador, lo había concebido a finales de los años 80, pero fue en los 90 cuando lo publicó en Internet, abriendo así su desarrollo y potenciando su mejora y expansión, sobre todo a partir de la versión 2.0 publicada en el año 2000. En la década siguiente se hizo popular y sustituyó a Perl, uno de los lenguajes en los que se inspiró, en muchos de sus escenarios de uso. Actualmente se considera requisito técnico imprescindible en la compañía Google, y se usa ampliamente en otros gigantes de Internet como Yahoo o incluso en la mismísima NASA.

Al ser una tecnología ya madura con un modelo de desarrollo abierto cuenta con numerosa documentación y bibliografía, lo que facilita (incluso anima a) su aprendizaje:
  • Su autor, Guido van Rossum, ha publicado un libro introductorio de 165 páginas titulado An introduction to Python, que puede obtenerse en formato electrónico previo donativo de 5$ a la Python Software Foundation.
  • En español hay un buen libro introductorio de 160 páginas titulado Python para todos, escrito por Raúl González Duque y disponible de forma gratuita como documento web para su lectura online y también en formato PDF.
  • Otro libro gratuito introductorio, algo más breve, pero en inglés es A Byte of Python, disponible online y en PDF tanto para la versión 2.x del lenguaje como para la nueva versión 3.
  • Un libro interesante, escrito de forma colaborativa en wikibooks.org, es Python Programming, disponible también en formato PDF.
  • Dive Into Python es un libro más avanzado (entre 300 y 500 páginas) sobre este lenguaje y cuenta con versión electrónica gratuita, tanto para la versión 2.x, como para la versión 3.
  • Think Python (Piensa en Python), subtitulado "How to Think Like a Computer Scientist" (Cómo pensar como un informático) tiene un enfoque más didáctico, ya que fue concebido como un libro de texto académico para aprender a programar sin necesidad de conocimientos previos. El autor se dio cuenta de que Python era el lenguaje ideal para que sus alumnos aprendieran los fundamentos de la programación sin perderse en los detalles técnicos y/o la complejidad intrínseca del lenguaje utilizado (antes usaba Java ;) y además divirtiéndose (este hecho debería interesar a los "expertos" que diseñan los planes de estudios en nuestro país...)
En fin, que Python es, modas aparte, un lenguaje muy a tener en cuenta desde hace unos años y puede convertirse, en tan solo unas pocas semanas de aprendizaje y prueba, en una valiosa herramienta (incluso en el language of choice) en el arsenal de todo informático que se precie. Espero que la bibliografía recomendada contribuya a hacerlo más factible ;-)

sábado, 19 de febrero de 2011

E-mail desde la línea de comandos

El correo electrónico se ha convertido en los últimos años en un medio de comunicación muy popular, algo cotidiano. Esto no significa que sea una tecnología reciente, ya que se viene usando durante décadas en Internet -no en vano es uno de sus servicios básicos- e incluso antes de la invención de ésta. La mayoría del gran público lo ha conocido ya en forma de webmail (al estilo de Hotmail o Gmail) y no ha utilizado (o ni siquiera conoce de oídas) aplicaciones de escritorio (los llamados gestores o clientes de correo) como Pegasus Mail, Outlook Express o Mozilla Thunderbird. Menos aún imaginan clientes de correo con una interfaz de usuario en modo texto o incluso de línea de comandos. Y el caso es que existieron, existen y seguirán existiendo al margen de los entornos gráficos y las modas que los afectan.

Sin entrar en debates sobre si el uso actual de estos programas se debe a un alarde de "frikismo", nostalgia o incluso masoquismo, el caso es que parece justo y necesario que estos existan para poder ser utilizados en ciertos entornos y situaciones. Una de ellas, la que ha motivado este post, es la provocada por la necesidad de realizar un envío de mensajes de e-mail de forma no interactiva desde un script. Entonces uno agradece las múltiples utilidades de consola que existen para realizar cualquier tarea imaginable y enviar mail no podía ser menos.

Antes de centrarnos en el ámbito de Unix/Linux, comentar que en Windows también puede hacerse recurriendo a programas como MAILSEND, Send Mail o Bmail o mediante el uso de sencillos scripts en VBS. Todas estas opciones se valoran en este interesante documento web.

En el mundo Linux, por su herencia de Unix, hay también múltiples utilidades y programas que proporcionan distintas soluciones al problema:
  • Una solución clásica sería usar la siguiente combinación software: un cliente de correo de consola como mail (el llamado MUA o "agente de usuario de correo") más un servidor de envío / enrutamiento de correo como exim (el llamado MTA o "agente de transporte de correo") configurado para enviar el correo a través de un servidor externo como puede ser el de Gmail. En el caso de distribuciones de GNU/Linux derivadas de Debian como Ubuntu, sólo habría que instalar el paquete mailutils y proceder a la configuración del servidor como se especifica en este blog.
  • Otra solución más sencilla y por tanto recomendable sería usar un derivado moderno y más potente del clásico programa mail que permita el envío directo a través de servidores SMTP externos y nos ahorre la instalación, configuración y mantenimiento de uno propio en nuestra máquina (exim en la solución descrita anteriormente). Ese programa es el llamado Heirloom mailx, híbrido entre el programa mail y una mejora posterior llamada mailx de la que ha cogido el nombre (también se le conoce como nail, su nombre anterior). En Ubuntu lo podemos instalar mediante el paquete heirloom-mailx. Lo bueno es que se puede configurar, no solo mediante el archivo de configuración estándar definido por la variable de sistema MAILRC, sino mediante el uso de sus propias variables de entorno para hacer una configuración "al vuelo" particular para cada script y que se le pasará ejecutándolo con env como puede apreciarse en el siguiente ejemplo:
#!/bin/bash

usuario_mail="usuario@gmail.com"
contras_mail="LaContraseña"

destinatario="administrador@empresa.com"
asunto="$(basename $0): Aviso importante"
mensaje="Este sería el cuerpo del mensaje"
f_mensaje="/tmp/body.msg"

echo "$mensaje" > $f_mensaje

env MAILRC=/dev/null from="$usuario_mail" \
smtp-use-starttls= smtp=smtp.gmail.com:587 \
smtp-auth=login smtp-auth-user=$usuario_mail \
smtp-auth-password=$contras_mail \
mailx -n -s "$asunto" $destinatario < $f_mensaje
El uso del servidor SMTP de Gmail requiere que tengamos una cuenta de usuario en dicho servicio gratuito (los mensajes se enviarán en nombre de ese usuario) y ha sido elegido, además de por proporcionar un buen funcionamiento (que incluye encriptación mediante TLS), para evitarnos los típicos problemas derivados de usar un servidor SMTP estándar (puerto 25) distinto al del ISP con el que conectemos a Internet.

Cuando necesitemos que un shell script de nuestro sistema (nos) notifique cualquier error o eventualidad vía e-mail no tendremos más que instalar el cliente de correo mailx y adaptar el código anterior para lograrlo. Próximamente publicaré una versión de vigila-wifi que lo incorpora para alertarnos de posibles intrusiones en nuestra red inalámbrica doméstica cuando no estemos en casa...

domingo, 30 de enero de 2011

Tareas de audio y vídeo en Linux

Como voy bastante liado en este comienzo de año y no he podido acabar ninguno de los posts que tenía pensados aprovecharé para reciclar material anterior. En este caso se trata de unas diapositivas en formato PDF que utilicé el año pasado en una charla-taller relacionada con el software libre y titulada "Tareas habituales con audio y vídeo en sistemas GNU/Linux". La idea era mostrar cual es el panorama en una distribución Linux moderna a la hora de lidiar con audio y vídeo, algo muy habitual desde hace unos años. Aunque algunas de las diapositivas simplemente recogen clasificaciones o sintetizan / relacionan conceptos para apoyar una charla más profunda, creo que en su conjunto pueden ser de cierta utilidad. Un resumen de los contenidos:
  • Introducción al sonido en Linux
  • Limitaciones predeterminadas en Ubuntu y cómo salvarlas
  • Introducción a los codecs de audio
  • Reproducción de audio
  • Codificación de audio en formato MP3
  • Codificación de audio en formato Vorbis
  • Codificación de audio usando otros codecs
  • Extracción de audio desde CD
  • Grabación y edición de audio
  • Edición de metadatos de la música
  • Reproducción de vídeo
  • Extracción y codificación de vídeo
  • Otras operaciones con DVDs
  • Transcodificación de vídeo
  • Edición de vídeo
  • Manipulación de audio y vídeo desde la consola

sábado, 22 de enero de 2011

Diseñado para no durar

La obsolescencia planificada no es más que otro indicio de que algo no va bien en nuestro querido sistema capitalista-consumista occidental. Considerado "una política del diseño industrial consistente en planificar o diseñar de forma deliberada un producto para que tenga una vida útil limitada", no es ninguna nueva vuelta de tuerca para incrementar beneficios a costa del consumidor, sino que se remonta a la Gran Depresión norteamericana y se viene utilizando de forma habitual desde los años cincuenta. El cambio en los formatos de audio y vídeo o en algunos dispositivos periféricos de informática sería un ejemplo de obsolescencia técnica. Un caso particularmente sangrante es el de las baterías de litio de ciertos fabricantes, que usan un circuito integrado para reducir los niveles y ciclos de carga artificialmente. La obsolescencia sistémica consigue su objetivo alterando, no el producto en sí, sino el sistema, el entorno en que se usa. Un ejemplo sería lanzar nuevo software que al usar nuevos formatos de archivo vaya dejando aislados a los productos anteriores; otro sería el acabar con el soporte técnico y el mantenimiento de ciertos productos tras lanzar al mercado las nuevas versiones. Pero el tipo más perverso de obsolescencia es la basada en el estilo del producto, creando tendencias y ciclos de moda perfectamente programados. El ejemplo más típico es la ropa, aunque también se aplica tradicionalmente a los automóviles y más recientemente a productos de consumo como los teléfonos móviles. Aquí es el propio usuario el que, condicionado por el estigma del "pasado de moda" reemplazará voluntariamente el producto al acabar el ciclo, aunque el producto se encuentre en perfecto estado y siga siendo totalmente funcional. La psicología al servicio de la manipulación de masas. Muy sano.


Una animación interesante sobre este tema que lleva un tiempo circulando por Internet es La historia de las cosas, producida por los autores de storyofstuff.org:




Un interesante documental de corte más clásico sobre el asunto, emitido recientemente en La 2 de RTVE es:

Comprar, tirar, comprar




Conocer (y denunciar) cómo funcionan las trampas del mundo en que vivimos sólo es el primer paso. El siguiente es aprender a evitarlas y ayudar a los demás a hacerlo. Internet es el medio perfecto para conseguir ambos objetivos. En lo referente al segundo paso y en el contexto de alargar la vida de las cosas útiles que nos rodean, podemos empezar por visitar sitios web como iFixit y YoReparo. Y con el tiempo hasta contribuir a que crezcan ;-)