Shared posts

25 Mar 20:21

How I became a password cracker

by Nate Anderson
Aurich Lawson

At the beginning of a sunny Monday morning earlier this month, I had never cracked a password. By the end of the day, I had cracked 8,000. Even though I knew password cracking was easy, I didn't know it was ridiculously easy—well, ridiculously easy once I overcame the urge to bash my laptop with a sledgehammer and finally figured out what I was doing.

My journey into the Dark-ish Side began during a chat with our security editor, Dan Goodin, who remarked in an offhand fashion that cracking passwords was approaching entry-level "script kiddie stuff." This got me thinking, because—though I understand password cracking conceptually—I can't hack my way out of the proverbial paper bag. I'm the very definition of a "script kiddie," someone who needs the simplified and automated tools created by others to mount attacks that he couldn't manage if left to his own devices. Sure, in a moment of poor decision-making in college, I once logged into port 25 of our school's unguarded e-mail server and faked a prank message to another student—but that was the extent of my black hat activities. If cracking passwords were truly a script kiddie activity, I was perfectly placed to test that assertion.

It sounded like an interesting challenge. Could I, using only free tools and the resources of the Internet, successfully:

Read 84 remaining paragraphs | Comments

25 Mar 20:20

How long should we expect Google Keep to last?

by Cory Doctorow


On the Guardian, Charles Arthur has totted up the lifespan of 39 products and services that Google has killed off in the past due to insufficient public interest. One interesting finding is that Google is becoming less patient with its less popular progeny, with an accelerating trend to killing off products that aren't cutting it. This was occasioned by the launch of Google Keep, a networked note-taking app which has the potential to become quite central to your workflow, and to be quite disruptive if Google kills it -- much like Google Reader, which is scheduled for impending switch-off.

So if you want to know when Google Keep, opened for business on 21 March 2013, will probably shut - again, assuming Google decides it's just not working - then, the mean suggests the answer is: 18 March 2017. That's about long enough for you to cram lots of information that you might rely on into it; and also long enough for Google to discover that, well, people aren't using it to the extent that it hoped. Much the same as happened with Knol (lifespan: 1,377 days, from 23 July 2008 to 30 April 2012), or Wave (1,095 days, from May 2009 - 30 April 2012) or of course Reader (2,824 days, from 7 October 2005 to 1 July 2013).

If you want to play around further with the numbers, then if we assume that closures occur randomly as a normal distribution around the mean, and that Google is going to shut Google Keep, then there's a 68% chance that the closure will occur between April 2015 and February 2019. Even the later date wouldn't be much longer than Evernote - which is still growing - has already lasted. Is Google really that committed to Keep?

Google Keep? It'll probably be with us until March 2017 - on average (via /.)

25 Mar 20:10

Congressman boasts on Twitter about the money he got to support CISPA, then thinks better of it

by Cory Doctorow


CISPA is a bill before Congress that will radically increase the ease with which the government and police can spy on people without any particular suspicion. It is being rammed through by people like Rep. Mike Rogers (R-MI), who received a small fortune in funding from the companies that stand to get rich building the surveillance tech CISPA will make possible.

What's more, Rogers admits it, and even tweets about it! Nicko Margolies from the Sunlight Foundation writes,

Rep. Mike Rogers (R-MI), a co-sponsor and major supporter of the controversial Cyber Intelligence Sharing and Protection Act (CISPA), deleted a retweet of an analysis of contributions to lawmakers from pro-CISPA companies. MapLight looked at the powerful House Intelligence Committee, where Rep. Rogers serves as Chairman, and followed campaign contributions to the members who are currently considering the bill that would allow companies to share more information on Internet traffic and users with the U.S. government.

Rep. Rogers, or possibly a member of his staff, retweeted the story that identified that members of the House Intelligence Committee "have received, on average, 15 times more money in campaign contributions from pro-CISPA organizations than from anti-CISPA organizations." He retweeted MapLight's tweet of this information from his iPhone and after 23 minutes thought better of it and removed it. Fortunately the Sunlight Foundation's Politwoops project caught it and archived this change of message and of heart. According to the MapLight piece, Rep. Rogers received $214,750 from interest groups that support CISPA.

The EFF has more info on CISPA, and ways you can help kill it.

Pro-CISPA Lawmaker Deletes Retweet about Money Received from Pro-CISPA Groups (Thanks, Nicko!)

25 Mar 19:23

Free Access To Dozens of Anonymous VPNs Via New University Project

by Andy

No matter which country you live in there are always people in authority seeking to limit which websites you’re able to view.

Admittedly some sites are quite rightly deemed repulsive to society in general and 99% of the public have few problems with them being hidden away. However, the blocking of ‘normal’ sites is much more controversial.

China is infamous for its Great Firewall and its censorship of anything it pleases from Twitter to YouTube. Iran also has concerns that its citizens’ minds will be influenced by Western thinking via the web. Overall, oppressive regimes tend to see some websites as having a destabilizing effect, so they censor them to maintain control.

In recent times the notion of website blocking has become fashionable in the West too, mainly because certain domains are viewed as offensive to the music and movie industries. The Pirate Bay is blocked in many countries and just this week the UK added another three sites to its ISPs’ filters – KAT.PH, H33T and Fenopy.

But, as mentioned countless times in the past, these filters represent mere temporary roadblocks for the determined and today we bring news of an exciting project that allows almost anyone to access any site they like in seconds. Best of all, it takes just a few minutes to setup and it’s completely free.

VPNGate

The Graduate School of University of Tsukuba, Japan, has just launched the VPN Gate Academic Experiment Project with the aim “to expand the knowledge of Global Distributed Public VPN Relay Servers.” We’re very happy to help them with that today.

How it works

Volunteers have given the University access to dozens of VPN servers located all over the world which people can access from pretty much any device running Windows, Linux, iOS, Android and more. No sign up or user registration is needed. Once connected the user’s IP address is hidden and switched for one issued by the VPN of their choice selected from dozens around the world.

VPNGate3

Protocols and the SSL-VPN client

Several protocols are accepted, such as L2TP/IPsec, SSTP and the popular OpenVPN, but things get really streamlined for those who select the SSL-VPN option. This requires the easy installation of the Windows freeware client SoftEther VPN but it’s straightforward and only takes a couple of minutes.

The beauty of running the client (which is also developed by the University and will soon go open source) soon becomes apparent. Not only does SoftEther offer SSL-VPN tunneling via HTTPS to pass more easily through NATs and firewalls, it has another trick up its sleeve.

The client comes with a nifty pre-configured plugin which displays a list of all the available VPN servers offered by VPN Gate (see below). This enables the user to activate, disconnect, or switch between VPNs with just a click. This means that there is no need to set up each VPN connection manually in an operating system, although that can be done if the user prefers.

VPNGateList

Unblock any site in an instant

Want to unblock The Pirate Bay, KAT.PH or H33T in the UK? Easy, just select any server that isn’t in the UK and preferably outside Europe. Want to access YouTube in China? Simple, just access any non-domestic VPN server. US citizen who needs to use Hulu overseas? Fine, just pick a United States server. UK citzen who needs to access the BBC iPlayer abroad? A UK server will provide the solution.

Once a server is selected and connected to the client, simply use your regular browser and other Internet applications as usual and traffic will be diverted through the VPN.

Tests

TorrentFreak carried out some basic tests yesterday and got some decent results. We successfully unblocked all of the blocked torrent sites in the UK, accessed Hulu from outside the US, and watched the BBC iPlayer and TVCatchup services from outside the UK.

Also, since the people at VPN Gate apparently have no problem with people using the service for video transfers (they mention YouTube specifically), we conducted some limited BitTorrent runs on half a dozen servers around the world. In each case we connected to a VPN server via the SoftEther Client and carried out tests with a service such as TorrentIP to ensure that our IP address when using BitTorrent had actually been changed. All but one of our tested servers worked fine while another appeared to block torrents.

Performance, logging and offering your computer as a server

As might be expected, performance changed from server to server but in each case browsing and transfer speeds were more than acceptable for a free service. Each server shows its available bandwidth so picking one with more tends to yield better results. That said, we tried a couple of slower ones and they performed just fine too.

While VPN Gate offers anonymity to a point, they do keep connection logs for around three months. In common with most other VPN services they do not monitor your activities but will comply when ordered to do so by the local courts, in this case those in Japan. However, each VPN server has its own logging policy and many appear to delete logs after a couple of weeks, if they keep them at all.

To give an outline of how the logging might affect users in real-life situations, we can look at a few scenarios.

If a US citizen carried out file-sharing on a US VPN server, he might be logged by those carrying out six strikes in the US. However, if that same user selected a server overseas, he would not be monitored by six strikes. Equally, an Iranian or Chinese citizen looking to carry out activities frowned upon by his or her government would be advised to use servers located outside their respective countries.

Finally, please use the services responsibly – respect the volunteers offering their services and consider becoming one yourself. If you have a Windows computer and can offer your bandwidth, click here for more information.

Source: Free Access To Dozens of Anonymous VPNs Via New University Project

25 Mar 18:35

Hotline Miami - Hemoglobina catártica

by Zerael
Cine y videojuegos. Videojuegos y cine. No pasa un día sin que el pseudoperiodismo del gremio dé cuenta de sus estrechas relaciones. Para bien o para mal, parece que son dos medios de expresión condenados a entenderse. Sin ir más lejos, el otro día hablaba sobre el tópico de la damisela en apuros, y aunque sus raíces pueden rastrearse desde la literatura clásica, la mayor influencia al respecto siempre ha venido desde el séptimo arte. Leer más...
25 Mar 03:01

Why Ruby?

I've been a Microsoft developer for decades now. I weaned myself on various flavors of home computer Microsoft Basic, and I got my first paid programming gigs in Microsoft FoxPro, Microsoft Access, and Microsoft Visual Basic. I have seen the future of programming, my friends, and it is terrible CRUD apps running on Wintel boxes!

Of course, we went on to build Stack Overflow in Microsoft .NET. That's a big reason it's still as fast as it is. So one of the most frequently asked questions after we announced Discourse was:

Why didn't you build Discourse in .NET, too?

Let me be clear about something: I love .NET. One of the greatest thrills of my professional career was getting the opportunity to place a Coding Horror sticker in the hand of Anders Hejlsberg. Pardon my inner fanboy for a moment, but oh man I still get chills. There are maybe fifty world class computer language designers on the planet. Anders is the only one of them who built Turbo Pascal and Delphi. It is thanks to Anders' expert guidance that .NET started out such a remarkably well designed language – literally what Java should have been on every conceivable level – and has continued to evolve in remarkably practical ways over the last 10 years, leveraging the strengths of other influential dynamically typed languages.

Turbo-pascal

All that said, it's true that I intentionally chose not to use .NET for my next project. So you might expect to find an angry, righteous screed here about how much happier I am leaving the oppressive shackles of my Microsoft masters behind. Free at last, free at least, thank God almighty I'm free at last!

Sorry. I already wrote that post five years ago.

Like any pragmatic programmer, I pick the appropriate tool for the job at hand. And as much as I may love .NET, it would be an extraordinarily poor choice for an 100% open source project like Discourse. Why? Three reasons, mainly:

  1. The licensing. My God, the licensing. It's not so much the money, as the infernal, mind-bending tax code level complexity involved in making sure all your software is properly licensed: determining what 'level' and 'edition' you are licensed at, who is licensed to use what, which servers are licensed... wait, what? Sorry, I passed out there for a minute when I was attacked by rabid licensing weasels.

    I'm not inclined to make grand pronouncements about the future of software, but if anything kills off commercial software, let me tell you, it won't be open source software. They needn't bother. Commercial software will gleefully strangle itself to death on its own licensing terms.

  2. The friction. If you want to build truly viable open source software, you need people to contribute to your project, so that it is a living, breathing, growing thing. And unless you can download all the software you need to hack on your project freely from all over the Internet, no strings attached, there's just … too much friction.

    If Stack Overflow taught me anything, it is that we now live in a world where the next brilliant software engineer can come from anywhere on the planet. I'm talking places this ugly American programmer has never heard of, where they speak crazy nonsense moon languages I can't understand. But get this. Stand back while I blow your mind, people: these brilliant programmers still code in the same keywords we do! I know, crazy, right?

    Getting up and running with a Microsoft stack is just plain too hard for a developer in, say, Argentina, or Nepal, or Bulgaria. Open source operating systems, languages, and tool chains are the great equalizer, the basis for the next great generation of programmers all over the world who are going to help us change the world.

  3. The ecosystem. When I was at Stack Exchange we strove mightily to make as much of our infrastructure open source as we could. It was something that we made explicit in the compensation guidelines, this idea that we would all be (partially) judged by how much we could do in public, and try to leave behind as many useful, public artifacts of our work as we could. Because wasn't all of Stack Exchange itself, from the very first day, built on your Creative Commons contributions that we all share ownership of?

    You can certainly build open source software in .NET. And many do. But it never feels natural. It never feels right. Nobody accepts your patch to a core .NET class library no matter how hard you try. It always feels like you're swimming upstream, in a world of small and large businesses using .NET that really aren't interested in sharing their code with the world – probably because they know it would suck if they did, anyway. It is just not a native part of the Microsoft .NET culture to make things open source, especially not the things that suck. If you are afraid the things you share will suck, that fear will render you incapable of truly and deeply giving back. The most, uh, delightful… bit of open source communities is how they aren't afraid to let it "all hang out", so to speak.

    So as a result, for any given task in .NET you might have – if you're lucky – a choice of maybe two decent-ish libraries. Whereas in any popular open source language, you'll easily have a dozen choices for the same task. Yeah, maybe six of them will be broken, obsolete, useless, or downright crazy. But hey, even factoring in some natural open source spoilage, you're still ahead by a factor of three! A winner is you!

As I wrote five years ago:

I'm a pragmatist. For now, I choose to live in the Microsoft universe. But that doesn't mean I'm ignorant of how the other half lives. There's always more than one way to do it, and just because I chose one particular way doesn't make it the right way – or even a particularly good way. Choosing to be provincial and insular is a sure-fire path to ignorance. Learn how the other half lives. Get to know some developers who don't live in the exact same world you do. Find out what tools they're using, and why. If, after getting your feet wet on both sides of the fence, you decide the other half is living better and you want to join them, then I bid you a fond farewell.
I no longer live in the Microsoft universe any more. Right, wrong, good, evil, that's just how it turned out for the project we wanted to build. Im-ok-with-this

However, I'd also be lying if I didn't mention that I truly believe the sort of project we are building in Discourse does represent most future software. If you squint your eyes a little, I think you can see a future not too far in the distance where .NET is a specialized niche outside the mainstream.

But why Ruby? Well, the short and not very glamorous answer is that I had narrowed it down to either Python or Ruby, and my original co-founder Robin Ward has been building major Rails apps since 2006. So that clinched it.

I've always been a little intrigued by Ruby, mostly because of the absolutely gushing praise Steve Yegge had for the language way back in 2006. I've never forgotten this.

For the most part, Ruby took Perl's string processing and Unix integration as-is, meaning the syntax is identical, and so right there, before anything else happens, you already have the Best of Perl. And that's a great start, especially if you don't take the Rest of Perl.

But then Matz took the best of list processing from Lisp, and the best of OO from Smalltalk and other languages, and the best of iterators from CLU, and pretty much the best of everything from everyone.

And he somehow made it all work together so well that you don't even notice that it has all that stuff. I learned Ruby faster than any other language, out of maybe 30 or 40 total; it took me about 3 days before I was more comfortable using Ruby than I was in Perl, after eight years of Perl hacking. It's so consistent that you start being able to guess how things will work, and you're right most of the time. It's beautiful. And fun. And practical.

Steve is one of those polyglot programmers I respect so much that I basically just take whatever his opinion is, provided it's not about something wacky like gun control or feminism or T'Pau, and accept it as fact.

I apologize, Steve. I'm sorry it took me 7 years to get around to Ruby. But maybe I was better off waiting a while anyway:

  • Ruby is a decent performer, but you really need to throw fast hardware at it for good performance. Yeah, I know, interpreted languages are what they are, and caching, database, network, blah blah blah. Still, we obtained the absolute fastest CPUs you could buy for the Discourse servers, 4.0 Ghz Ivy Bridge Xeons, and performance is just … good on today's fastest hardware. Not great. Good.

    Yes, I'll admit that I am utterly spoiled by the JIT compiled performance of .NET. That's what I am used to. I do sometimes pine away for the bad old days of .NET when we could build pages that serve in well under 50 milliseconds without thinking about it too hard. Interpreted languages aren't going to be able to reach those performance levels. But I can only imagine how rough Ruby performance had to be back in the dark ages of 2006 when CPUs and servers were five times slower than they are today! I'm so very glad that I am hitting Ruby now, with the strong wind of many solid years of Moore's law at our backs.

  • Ruby is maturing up nicely in the 2.0 language release, which happened not more than a month after Discourse was announced. So, yes, the downside is that Ruby is slow. But the upside is there is a lot of low hanging performance fruit in Ruby-land. Like.. a lot a lot. On Discourse we got an across the board 20% performance improvement just upgrading to Ruby 2.0, and we nearly doubled our performance by increasing the default Ruby garbage collection limit. From a future performance perspective, Ruby is nothing but upside.

  • Ruby isn't cool any more. Yeah, you heard me. It's not cool to write Ruby code any more. All the cool people moved on to slinging Scala and Node.js years ago. Our project isn't cool, it's just a bunch of boring old Ruby code. Personally, I'm thrilled that Ruby is now mature enough that the community no longer needs to bother with the pretense of being the coolest kid on the block. That means the rest of us who just like to Get Shit Done can roll up our sleeves and focus on the mission of building stuff with our peers rather than frantically running around trying to suss out the next shiny thing.

And of course the Ruby community is, and always has been, amazing. We never want for great open source gems and great open source contributors. Now is a fantastic time to get into Ruby, in my opinion, whatever your background is.

(However, It's also worth mentioning that Discourse is, if anything, even more of a JavaScript project than a Ruby on Rails project. Don't believe me? Just go to try.discourse.org and view source. A Discourse forum is not so much a website as it is a full-blown JavaScript application that happens to run in your browser.)

Even if done in good will and for the best interests of the project, it's still a little scary to totally change your programming stripes overnight after two decades. I've always believed that great programmers learn to love more than one language and programming environment – and I hope the Discourse project is an opportunity for everyone to learn and grow, not just me. So go fork us on GitHub already!

[advertisement] Hiring developers? Post your open positions with Stack Overflow Careers and reach over 20MM awesome devs already on Stack Overflow. Create your satisfaction-guaranteed job listing today!
24 Mar 22:11

Algunos enlaces y tuits sobre la #LeyLassalle

by wicho@microsiervos.com (Wicho)

Tal y como todos los que sabían un poco del tema auguraban la Ley Sinde ha resultado ser un fracaso, lo que no quita para que nunca debiera haber sido aprobada.

Así que ahora el gobierno de España, presionado básicamente por la industria audiovisual estadounidense, vuelve a la carga con una reforma de la Ley de Propiedad Intelectual, reforma que nadie duda que sea necesaria para poner esta al día, pero desde luego no en la forma de la que se conoce como Ley Lassalle, que le parece una barbaridad a casi todo el mundo.

Aquí van unos enlaces y tuits para que puedas ver de qué se trata:

  • Para empezar, el anteproyecto de ley en cuestión propiamente dicho, por aquello de ir a las fuentes [PDF 256 KB].
  • Las medidas controvertidas de la «ley Lassalle» de propiedad intelectual y #LeyLassalle, la distopía de los necios, un par de análisis de todo lo que tiene de chungo el texto aprobado por el consejo de ministros.
  • Ley Lassalle: SS, como la siniestra Sección Segunda, de dónde viene todo esto, a quién interesa, y por qué.
  • Los huevos de pascua escondidos en la Ley Lassalle, acerca de algo que el gobierno quiere colar de rondón, un canon a las universidades que le da a CEDRO el derecho a cobrar por obras de autores que no representa e incluso por obras que están en el dominio público, algo que de como dice Javier de la Cueva expropia el procomún, lo que es de todos y no es de nadie, cuya gestión se entrega a una asociación privada.

    La reforma de la LPI la resumo en 2 limitaciones -canon, enlaces- y 2 apropiaciones: OpenAccess y dinero de los no socios

    — Javier de la Cueva (@jdelacueva) 22 de marzo de 2013
  • Y ojo, que además El Gobierno prepara un canon para que Google pague a los diarios por utilizar sus noticias, aunque el buscador se las haya apañado para librarse por ofrecer enlaces.
  • El que esta ley no se haya consensuado con nadie –salvo con el amigo americano, es de suponer– ha tenido además la consecuencia de que no sólo las agencias de publicidad, que tendrían que actuar prácticamente como policías, se opongan a ella, sino que incluso las entidades de gestión de derechos de autor también lo hacen, aunque obviamente por sus propios motivos.
  • La identificación por la IP y la reforma de la LPI, un análisis de cómo ahora se podrá identificar la IP de un usuario por infracciones de propiedad intelectual cuando antes sólo se podía hacer en casos de delitos graves, lo que es un primer paso en la dirección de acabar yendo a por los usuarios, por mucho que nieguen que esa sea la intención.

    Mi juez rechaza pedir IP’s para investigar una intrusión informática profesional. Si fuera un usuario descargando música, podría hacerlo SS.

    — Ender Wiggin (@ender_halon) 22 de marzo de 2013
  • Como dijo Rodolfo Carpintier cuando le preguntaron por esta ley, «defender una industria que no sabe defenderse sola no sirve de nada», y además los efectos pueden ser nefastos y tener efectos colaterales no previstos

    El gobierno debería sopesar el efecto acongojante de #reformaLPI. Cuesta muy poco moverse a otro país, y no sólo para webs de enlaces

    — Javier Prenafeta (@javierprenafeta) 22 de marzo de 2013

Todo esto dará mucho de que hablar y leer en las próximas semanas, aunque dada la mayoría absoluta de la que disfruta el PP es poco probable –por no decir imposible– que se cambie ni una coma del texto propuesto a menos que así lo desee la industria audiovisual estadounidense, por mucho que sea a costa de nuestras libertades y derechos.

Desde hace algún tiempo tengo una lista en Twitter en la que sigo a abogados que tratan temas de tecnología, propiedad intelectual y similares, y preveo que echará humo, así que me permito recomendarla si te interesa seguir este tema.

Y debería.

# Enlace Permanente

24 Mar 22:05

Dragon Ball Z: La batalla de los dioses -ドラゴンボールZ 神と神

by Kirai

La semana que viene, el día 30 se estrena Dragon Ball Z: La batalla de los dioses -ドラゴンボールZ 神と神 en los cines de Japón. ¡La última vez que se estrenó una película basada en el universo de Dragon Ball fue hace 17 años!

Además, NO es un añadido sin relación a la historia principal como lo fueron hasta ahora todas las películas sobre Dragon Ball. Esta nueva película, Dragon Ball Z: La batalla de los dioses, se considera como parte oficial del argumento principal y explica lo que pasa en el salto temporal de 10 años que sucede entre los capítulos 517 y 518 del manga original. Es también la producción relacionada con Dragon Ball con mayor implicación de Akira Toriyama desde que terminara de dibujar el manga hace ya más de 15 años.

Las expectativas son muy altas y la campaña de publicidad se está dejando ver por las calles de Tokio durante las últimas semanas. Sobre todo con ofertas de comida en los restaurantes de comida rápida KFC donde puedes conseguir desde radares de bolas de dragón hasta botellas con el tapón con forma de bola de dragón.

Dragon Ball

En las tiendas 24 horas (Convenience stores) Lawson y Ministop también se pueden encontrar diversos artículos relacionados con la nueva película, como por ejemplo patatas fritas que son el pelo de Son Gokuh.

Dragon Ball

Dragon Ball

Dragon Ball

Dragon Ball

Dragon Ball

Dragon Ball

Dragon Ball

Dragon Ball

24 Mar 22:01

Todo lo que necesitas saber sobre los tipos de formateo según Sistema Operativo

by Ildefonso Gómez

Disco duro externo

Debido a la gran cantidad de archivos que almacenamos en nuestro ordenador, más de una vez tenemos que comprar un disco duro externo para evitar que se nos acabe la capacidad de almacenamiento. Gracias a este tipo de discos duros podremos ampliar la cantidad de ficheros que podemos guardar en nuestro PC, sin tener ningún problema de rendimiento.

Sin embargo, aunque los discos duros que podemos comprar en las tiendas ya vienen casi preparados para utilizarse, es conveniente realizar un formateo para evitar futuros problemas en el accesorio. La pregunta es, ¿Qué sistema de archivos le ponemos, y cómo lo formateamos?

En el mundillo de la informática podemos encontrar con varios sistemas de ficheros. Este tipo de programas se encargan de decirle a las memorias la manera en que deben trabajar. Por supuesto, cada uno tiene su propia manera, por lo que tendremos que elegir el que más nos convenga. Y lo cierto es que no todos nos sirven, ya que cada sistema operativo es compatible con una pequeña cantidad de ellos.

El sistema de ficheros, ¿Qué es?

Como ya hemos explicado con anterioridad, el sistema de ficheros le dice a los discos duros y memoria la forma en que deben trabajar, estructurando la información guardada según como haya sido programado.

También hemos comentado que cada sistema operativo, incluso entre sus versiones, sólo es compatible con una pequeña cantidad de sistemas de archivos. Esto quiere decir que cada software sólo es compatible con varios tipos de sistemas, lo que significa que sólo podrá trabajar con aquellos que conozca.

Los sistemas de ficheros

En la actualidad, en la industria podemos encontrar una amplia cantidad de sistemas de ficheros. Sin embargo, en este post sólo vamos a centrarnos en algunos de ellos, los que nos serán realmente útiles en los sistemas operativos más populares.

FAT

Empecemos con uno de los más antiguos, ya en desuso debido al tamaño de los discos duros actuales. FAT, también llamado Tabla de Asignación de Archivos, es un sistema de ficheros que fue desarrollado para MS-DOS, aunque se estuvo utilizando hasta Windows ME.

Su funcionamiento es realmente sencillo. Este sistema de archivos se divide en cuatro secciones:

  • El sector de arranque, en el que se almacena la información necesaria para arrancar el ordenador.
  • La región FAT, en la cual se almacenan dos copias de la tabla de asignación de archivos. Estos son mapas de la partición en los que se indican qué clusters están ocupados por los ficheros.
  • La región del directorio raíz, donde está el indice principal de carpetas y archivos.
  • La región de datos, en la cual se almacena el contenido de ficheros y carpetas.

FAT ha tenido diferentes versiones, cada una de las cuales con diferentes características:

  • FAT16, en la que se eliminó el contador de sectores de 16 bits.
  • LFN, una versión que permitió utilizar nombres de archivo largos.
  • FAT32, en la que el tamaño máximo de cada archivo podía llegar hasta los 4 GB.
  • ExFAT, la última versión de FAT, la cual permitía almacenar ficheros de más de 4 GB.

Por supuesto, el sistema de archivo FAT ha quedado en desuso, por lo que sólo se utiliza en memorias de poco tamaño, como las USB.

Archivos

NTFS

NTFS es uno de los sistemas de archivos más utilizados en la actualidad. Su uso llega hasta las últimas versiones de Windows, incluyendo Windows 7 y Windows 8, y también puede utilizarse en Linux.

Sus novedades respecto a otros sistemas parecidos son muy notables, aunque también tiene diferentes desventajas. Su diseño está basado en HPFS, un sistema de archivos de IBM/Microsoft, el cual era utilizado en OS/2.

Se recomienda su uso en discos duros y memorias con gran capacidad de almacenamiento. Aproximadamente, NTFS soporta hasta 16 TiB de información. Aunque el tamaño mínimo para montar un sistema de archivos de estas características es de 10 GB, también se puede utilizar con capacidades menores. Incluso, tiene soporte para archivos dispersos.

Su funcionamiento es muy interesante, ya que almacena los ficheros en forma de metadatos. Los nombres de archivos se almacenan en formato Unicode, y la estructura de ficheros en árboles-B, acelerando el acceso a la información y disminuyendo la fragmentación. Para garantizar la integridad del sistema de archivos se utiliza un registro transaccional.

NTFS tiene varias versiones, cada una de ellas con pequeñas novedades. La última es la versión 5.1, en la que se añadido características como cuotas de disco o puntos de montaje de volúmenes.

Su uso está muy extendido. Windows XP o Windows 7, entre otros sistemas operativo, utilizan este sistema de ficheros. Además, también se puede utilizar en memorias con baja capacidad de almacenamiento. Por supuesto, sistemas operativos como Linux o Mac OS X también están soportados.

EXT

EXT no es el sistema de archivos más popular, pero sí el más utilizado en distribuciones Linux. No obstante, su funcionamiento es el ideal para evitar la perdida de datos, lo que ha hecho que sea el favorito para muchos administradores de sistemas.

Su funcionamiento en las últimas versiones se basa en el registro por diario, también llamado Journaling, aunque también podemos encontrar otras características como un árbol binario balanceado o el asignador de bloques de disco Orlov.

Las últimas versiones de EXT son las siguientes:

EXT2

      : Es una de las versiones que está en desuso, ya que no tiene características como el journaling, aunque se puede encontrar en algunas versiones de las distribuciones Linux más antiguas. Sus límites están en 2 TB de tamaño para los archivos, y 4 TB de tamaño para cada partición.

EXT3

      : Es una de las versiones que más se utilizan en la actualidad, debido a que incorpora características como el Journaling, los índices en árbol, o el crecimiento en línea. Entre sus límites se encuentran los 16 GB – 2 TB para cada archivo o los 2 TB – 32 TB para el sistema de ficheros, dependiendo del tamaño de cada bloque. EXT3 también tiene varias desventajas, como la velocidad o la escabilidad. Sin embargo, estas deficiencias son suplidas con un bajo consumo de CPU y una seguridad mayor que en otros sistemas de archivos.

EXT4

    : Es la última versión estable publicada. Se trata de una versión que utiliza un funcionamiento basado en el journaling. Entre sus mejoras más notables respecto de EXT3 se encuentran el soporte de volúmenes hasta 1024 PiB, el soporte extend, un uso aún menor de CPU, y varias mejoras en la velocidad de lectura y escritura. Además, también destacan otras posibilidades como la compatibilidad con archivos de hasta 16 TiB en archivos y 1 exbibyte en carpetas, compatibilidad con EXT3, la superación del límite de 32000 directorios o la desfragmentación online. Su uso se limita a sistemas operativos Linux.

Como podéis ver, EXT es un sistema de ficheros diseñado casi en exclusiva para sistemas operativos Linux, aunque también puede utilizarse en otro tipo de software, como Windows o Mac OS X.

HFS

Hasta ahora, hemos podido ver distintos tipos de sistemas de ficheros, todos ellos utilizados en mayor o menor medida por distintos sistemas operativos. Sin embargo, ahora vamos a echarle un vistazo a HFS.

Es posible que HFS, o Hierarchical File System no sea conocido por muchos, aunque durante los últimos años ha ganado bastante popularidad, en gran medida por su uso en los sistemas operativos de Apple. Mac OS es el sistema que usualmente utiliza esta característica para manejar los archivos necesarios.

El funcionamiento de HFS es bastante sencillo, ya que divide el volumen en bloques lógicos de 512 bytes, los cuales están agrupados juntos en bloques de asignación que pueden contener uno o más bloques lógicos. Aunque este sistema de archivos utiliza un valor de dirección de 16 bits para los bloques de asignación, no debemos olvidar que existen cinco estructuras para forma un volumen HFS.

Problemas tampoco le faltan, ya que el Catalog File de HFS, el cual almacena todos los registros de archivos y directorios en una estructura de datos sencilla, puede provocarnos problemas de rendimiento cuando se permite la multitarea, ya que sólo un programa puede escribir, a la vez, en esta estructura.

Hace unos años, Apple lanzaba el sustituto de HFS, HFS+, un nuevo sistema de archivos que eliminaba los errores de la versión anterior y añadía nuevas características.

HFS+ soporta archivos mucho más grandes, y permite nombres de fichero de hasta 255 caracteres, de longitud UTF-16. Sin embargo, estas no son sus únicas ventajas, ya que también utiliza una tabla de asignación de 32 bits, permitiendo el uso de más de 65.536 bloques de asignación.

El funcionamiento de HFS+ es muy parecido a su antecesor, aunque las características más llamativas han sido corregidas con el fin de hacerlo un programa más eficiente.

Este nuevo sistema de archivos es el más usado en sistemas operativos como Mac OS 8, Mac OS 9 y Mac OS X, aunque también se puede ver su uso en algunas distribuciones Linux y Darwin.

Disco duro

ZFS

ZFS también es un sistema de ficheros que, aunque menos usado, también tiene características muy interesantes. Este software era diseñado por Sun Mycrosistems para el sistema operativo Solaris. Entre sus principales características destacan su gran capacidad, el administrador de volúmenes en un sólo producto, una nueva estructura de disco, un sistema de archivos ligero y una administración sencilla de espacios de almacenamiento.

El funcionamiento se ZFS se basa en un modelo transaccional copy-on-write, lo que significa que todos los punteros a bloques del sistema de ficheros contienen un checksum de 256 bits sobre el bloque apuntado, el cual se comprueba al leer el bloque. Aquellos bloques que contienen datos activos no se sobreescriben nunca, por lo que, en su lugar, se reserva un nuevo bloque, y los datos modificados se escriben en él. Además, para reducir la carga de este proceso se pueden agregar varias actualizaciones en grupos de transacciones, utilizándose un log de intentos cuando se necesitan escrituras asíncronas.

En los límites de ZFS encontramos un tamaño máximo de archivos y volumen de 16 exabytes.

Como ya hemos comentado, ZFS es usado en el sistema operativo Solaris, desarrollado por Sun Microsystems.

¿Cómo formatear nuestro disco duro externo?

Lo primero que debemos pensar cuando compramos un nuevo disco duro es en formatearlo. Esto servirá para eliminar todo contenido inservible que venga de fábrica, y ayudará a que tengamos un sistema de ficheros acorde a nuestra necesidades. Sin embargo, es un proceso que puede llegar a tardar mucho, dependiendo del tamaño del disco duro, y del software que queramos instalar.

Para formatear los discos duros tenemos a nuestra disposición diferentes tipos de utilidades, aunque en esta ocasión vamos a aprender cómo dar formato con los programas integrados de Windows 7 y GParted.

Utilizando Windows 7

Windows 7, uno de los últimos sistemas operativos de Microsoft, contiene una herramienta que nos dará la posibilidad de formatear nuestro disco duro en varios tipos de sistemas de ficheros. Este programa es sencillo, pero a la vez muy útil, y que nos permitirá realizar las operaciones que queremos en pequeños pasos.

En primer lugar, para acceder a la utilidad debemos saber que tenemos que tener conectada en nuestro ordenador el disco duro que queremos formatear. En este caso, al ser un disco externo, podemos hacerlo mediante cualquiera de los puertos USB disponibles.

Cuando lo conectemos, tendremos que dirigirnos al apartado Mi Equipo, en el cual se muestran todas las unidades que hay disponibles. En nuestro ejemplo vamos a formatear un pendrive de 8 GB.

Windows 7

Seguidamente, realizaremos un click derecho sobre la unidad que vamos a formatear, y haremos click sobre la frase formatear. Esto nos mostrará una nueva ventana, en la que tendremos disponibles varias opciones:

  • Capacidad: Es la capacidad de nuestro disco duro.
  • Sistema de archivos: Es el sistema de ficheros que se instalará al realizar el formateo. Tenemos disponibles varias opciones: NTFS, FAT, FAT32 y ExFAT.
  • Tamaño de la unidad de asignación: Es el tamaño que tendrá la unidad de asignación. Tendremos disponibles varias opciones, aunque lo ideal es dejar la que tiene por defecto.
  • Restaurar valores predeterminados: Esto nos permitirá restaurar los valores predeterminados que nos recomienda el sistema.
  • Etiqueta del volumen: Es la etiqueta que tendrá el volumen después de formatearlo.
  • Formato rápido: Es una opción que nos dará la posibilidad de realizar un formateo rápido.
  • Crear un disco de inicio de MS-DOS: También podemos crear un disco de inicio de MS-DOS, en el caso de que tengamos problemas con este sistema operativo.

Windows 7

Finalmente, cuando le demos al botón de iniciar, el sistema operativo comenzará a formatear la unidad de disco. El tiempo que tardará este proceso depende del tipo de disco duro en el que estemos operando, aunque tenemos a nuestra disposición una barra que nos indicará el estado.

Utilizando GParted

En primer lugar, debemos saber que podríamos considerar a Gparted como una pequeña distribución Linux que nos dará la posibilidad de realizar modificaciones en los discos duros de nuestro ordenador. Tan sólo tenemos que descargar el CD desde la página web oficial, y ejecutarlo sin iniciar el sistema operativo del PC, ya que el disco actúa como un Live-CD. Esto significa que podemos acceder a la utilidad sin necesidad de tener montado un sistema operativo.

Nuestra recomendación es utilizar los valores por defecto. Tras hacer esto, el sistema nos mostrará una pantalla en la que se mostrarán los diferentes dispositivos que tenemos conectados a nuestro ordenador.

GParted

En este caso nos centraremos en la unidad /dev/sda1, la cual hemos creado en una máquina virtual con el propósito de formatearla. Primer la eliminaremos haciendo un click derecho sobre ella y seleccionado la opción Delete. Esto hará que la partición pase a un estado de Unallocated, es decir, sin ninguna información en su interior. Llegados a este punto, haremos un click derecho sobre Unallocated, y le daremos a New, lo cual nos permitirá darle formato a la unidad.

A continuación se nos mostrará una nueva pantalla con diferentes opciones:

  • Free space preceding: Esta opción nos dará la posibilidad de definir el espacio que quedará libre antes de definir la partición en sí.
  • New Size: Lo cual nos permitirá definir el tamaño que tendrá la nueva partición.
  • Free space following: Una opción en la que podremos definir el espacio libre que habrá después de crear la partición, es decir, en los siguientes sectores del disco.
  • Align to: Lo que nos permitirá elegir el tipo de medición para definir los valores.
  • Create as: Es una opción en la que podremos definir el tipo de partición que será.
  • File System: El sistema de archivos. Tenemos la posibilidad de elegir entre los más populares de la industria.
  • Label: La etiqueta que tendrá la nueva partición.

Tras definir todos estos valores, le daremos a Add, y seguidamente aplicaremos los cambios en el disco pulsando el botón Apply.

Cuando el sistema haya terminado, un mensaje nos confirmará que los procesos han terminado, y podremos reiniciar nuestro ordenador.

Como habéis podido comprobar en las líneas anteriores, existen una amplia variedad de sistemas de ficheros, aunque nosotros seremos los que elegiremos el que más convenga para nuestro sistema operativo.

Nuestras recomendaciones son las siguientes:

  • Sistemas operativos Windows: Debemos tener en cuenta el tamaño de nuestro disco duro. Lo más aconsejable en las versiones más recientes es utilizar NTFS, aunque también podremos usar FAT32 en el caso de que la capacidad de almacenamiento no sea la suficiente para utilizar otro sistema de ficheros más actual.
  • Sistemas operativos Linux: Aunque la mayoría de usuarios coincidirán en que EXT3 es un buen sistema de ficheros para nuestra distribución Linux, lo cierto es que es recomendable utilizarlo en sistemas de producción. Aunque EXT4 ya se encuentra en una versión estable, se siguen publicando diversas mejoras y correcciones. Nosotros preferimos EXT3.
  • Sistemas operativos Mac: En este caso, el sistema de instalación de Mac nos instalará el sistema de archivos que crea conveniente.
  • Otros sistemas operativos: Si no vais a instalar ninguno de los sistemas operativos antes mencionados, nuestra recomendación es que dejéis los valores por defecto. No obstante, las últimas versiones de los distintos programas sabrán elegir el sistema de archivos necesario para funcionar correctamente.

Por supuesto, también os recomendamos que leáis algunos de los sistemas de ficheros minoritarios que existen, ya que estos podrían proporcionarnos diversas características en nuestros sistemas informáticos.

Fuentes | Wikipedia: Sistema de archivos, FAT, NTFS, Ext3, Ext4, HFS, HFS+ y ZFS.
Fotos | Wikimedia: Disco duro externo, Disco duro



23 Mar 06:56

moorbay: Lenticular clouds over Mount Fuji, Japan. These are...



moorbay:

Lenticular clouds over Mount Fuji, Japan. These are stationary lens-shaped clouds that form at high altitudes, usually perpendicular to the direction of the wind.

http://moorbay.tumblr.com

23 Mar 06:29

Migraña, bótox y pelo

by jralonso

Galeno de Pérgamo, uno de los médicos más famosos de la Antigüedad, describió un problema neurológico al que llamó hemicrania. El término se refería a un fuerte dolor de cabeza que aparecía normalmente solo en un lado del cerebro –de ahí el nombre- y cuya denominaciónfue derivando a la palabra “migraña”.

La migraña puede ir asociada a dolor en los ojos o el cuello, a náuseas y vómitos y también a no soportar la luz (fotofobia), los sonidos (fonofobia) o algunos olores determinados.

Louis Hyacinthe Thomas, un bibliotecario francés clasificó en 1887 las migrañas en dos tipos que siguen en uso: migraña con aura o clásica y migraña sin aura o común. El aura es una fase preliminar al dolor pulsante donde el paciente ve flashes, puntos o líneas brillantes, algunas con trayecto en zig-zag o como si fuera la silueta de una fortaleza. Ocasionalmente el aura puede incluir una pérdida temporal de la visión, problemas en el habla, el que se quede dormida la cara o los brazos o sentir un hormigueo que sube desde los dedos hasta el rostro. El aura puede durar de pocos minutos a una hora y normalmente hay un tiempo tranquilo, una fase intermedia de una hora aproximadamente, antes de que la migraña aparezca. En ambos tipos de migrañas puede haber otros síntomas previos como cambios en el ánimo (depresión o irritabilidad), sensación de hambre, deseos frecuentes de orinar, trastornos del sueño, sinusitis o un antojo por determinadas comidas.

Los ataques de migraña duran normalmente de 2 a 72 horas y durante ese tiempo las personas afectadas desean estar tumbadas o sentadas en una habitación a oscuras y sin ruidos. Algunas mujeres con experiencia al respecto consideran que el dolor de la migraña es peor que el del parto o el producido por la rotura de un hueso. El dolor de cabeza empeora con los movimientos incluso cosas sencillas como caminar o subir unas escaleras, y también con los ruidos o la luz. Además de estos ataques que se repiten con mayor o menor frecuencia existen también las migrañas crónicas en las cuáles la persona tiene un dolor de cabeza durante quince o más días de cada mes, y en ocho al menos ese dolor alcanza por su intensidad la categoría de migraña.

Las migrañas son tres veces más comunes en mujeres que en hombres y afectan a en torno a un 12% de la población. La proporción entre sexos no es estable sino que varía con la edad. En los niños es más frecuente en los varones pero la proporción se invierte al llegar la pubertad. Aumenta mucho en las adolescentes y decrece a partir de los 45 años, lo que sugiere una conexión con los niveles hormonales. También se han descrito diferencias raciales siendo más frecuente en la población caucásica que en los afroamericanos o asiáticos de los Estados Unidos.

Las migrañas son el trastorno neurológico con mayor coste económico en los países occidentales. En la Unión Europea se ha calculado que supone un daño económico superior a los 27.000 millones de euros al año. Los mayores problemas son el impacto sobre la productividad laboral, generando un fuerte absentismo y una caída de la eficacia y eficiencia en las personas que acuden al trabajo sufriendo migraña y el gasto en medicamentos.

No se conoce el sustrato biológico de este trastorno neurológico pero se considera que está relacionado con cambios en el calibre de los vasos sanguíneos cerebrales y con un desequilibrio químico en los neurotransmisores. En particular se ha pensado que la serotonina podría ser un factor significativo puesto que su descenso produce vasodilatación que a su vez genera esa sensación pulsátil característica de muchas migrañas. Se piensa que hay factores genéticos implicados y que algunos factores como el cansancio, el estrés, los cambios hormonales, los desajustes en la alimentación, la deshidratación y algunas comidas como el queso o el chocolate, y algunas bebidas como el vino tinto y otras bebidas alcohólicas y las estimulantes como el café o el té pueden desencadenar la aparición de una migraña.

Las migrañas son algo más que fuertes dolores de cabeza. Nouchine Hadjikhani de la Universidad de Harvard encontró que las fibras nerviosas que llevan señales de dolor de la cabeza al cerebro eran más gruesas en las personas con migraña que en voluntarios. Estos pacientes con migraña tienen también una corteza somatosensorial, la región cerebral que procesa las sensaciones, un 21% más gruesa que el grupo control. Dicho de una forma sencilla, el cerebro de las personas con migraña es diferente de las personas que no lo sufren pero no sabemos si es distinto a causa de la migraña o sufre migraña por esa estructura diferente.

La migraña no tiene cura por lo que el objetivo es limitar en lo posible la frecuencia, duración e intensidad de los ataques. Algunos pacientes notan mejoría tomando fármacos cuando empieza un ataque y también es frecuente tomar una medicación preventiva en las personas con migrañas recurrentes. Muchas personas se tratan las migrañas con analgésicos pero es necesario ir al médico si, por ejemplo las migrañas empeoran tras tomar la píldora anticonceptiva o si se observan síntomas como pérdida de visión o zonas del cuerpo que se quedan dormidas. También se utilizan otros fármacos llamados triptanos o agonistas de la 5-hidroxitriptamina que cambian los niveles cerebrales de serotonina. También se recetan contra la migraña betabloqueantes, neuromoduladores y antidepresivos a bajas doses. También se ha aprobado por agencias norteamericanas y europeas el uso de inyecciones de bótox (toxina botulínica) para el tratamiento de las migrañas crónicas. La toxina botulínica es una proteína producida por a bacteria Clostridium botulinum que bloquea la liberación de acetilcolina en la sinapsis neuromuscular con lo que el músculo deja de contraerse. El resultado de una inyección de bótox es una denervación química temporal del músculo sin producir ninguna lesión física en las estructuras nerviosas. Su uso para las migrañas crónicas se produjo tras una sugerencia de cirujanos plásticos de Hollywood que comentaron que sus pacientes que recibían inyecciones de bótox para disminuir las arrugas faciales señalaban una mejoría en sus ataques de migraña. Los estudios científicos han encontrado una mejora pero no muy significativa, aproximadamente una reducción del 10%.

La migraña ha afectado a muchas personas famosas incluyendo escritores como Gustave Flaubert, Virginia Wolf o Miguel de Cervantes, pensadores como Sigmund Freud o Friedrich Nietzsche o grandes líderes como Julio César, Napoleón Bonaparte y Thomas Jefferson así como el caso que quería comentar que es el del emperador Carlos V o como nos decían en el colegio Carlos I de España y V de Alemania. Carlos era el hijo mayor de Felipe el Hermoso y Juana la Loca y nieto de los Reyes Católicos. Era heredero de tres de las dinastías más poderosas de Europa: la casa de Habsburgo, la casa de Valois-Borgoña y la Casa de Trastámara.

El embajador veneciano Gaspar Contarini hacía la siguiente descripción del Emperador a los veinticinco años de edad:

Es de estatura mediana, mas no muy grande, ni pequeño, blanco, de color más bien pálido que rubicundo; del cuerpo, bien proporcionado, bellísima pierna, buen brazo, la nariz un poco aguileña, pero poco; los ojos ávidos, el aspecto grave, pero no cruel ni severo; ni en él otra parte del cuerpo se puede inculpar, excepto el mentón y también toda su faz interior, la cual es tan ancha y tan larga, que no parece natural de aquel cuerpo; pero parece postiza, donde ocurre que no puede, cerrando la boca, unir los dientes inferiores con los superiores; pero los separa un espacio del grosor de un diente, donde en el hablar, máxime en el acabar de la cláusula, balbucea alguna palabra, la cual por eso no se entiende muy bien.

Carlos tenía un fuerte prognatismo, una deformidad que empeoró en siguientes generaciones y que dio lugar al término “mandíbula Habsburgo”, un problema agudizado por los frecuentes matrimonios consanguíneos. El emperador tenía problemas para masticar por lo que sufría fuertes indigestiones y prefería comer solo. Otros problemas de salud eran los posibles ataques epilépticos, la gota y los fuertes dolores de cabeza.

Las migrañas de Carlos V debilitaban al emperador, el hombre más poderoso del mundo en su época y en busca de una solución optó por un remedio que causó una revolución en el aspecto personal como queda de manifiesto en las mejores pinacotecas del mundo: frente a las melenas de la nobleza hasta ese momento, para luchar con la migraña, el emperador se cortó el pelo. Inmediatamente toda la corte siguió su ejemplo y el pelo corto entre los nobles se convirtió en la referencia durante varios siglos.
En “Primera Década de las guerras de Flandes” (1681) Famiano Estrada cuenta así:

Que entrambos [el emperador Carlos y Juan de Austria] avian introducido alguna novedad en el aliño del cuerpo, y principalmente en ornato de la cabeza. Que Carlos primero, quando fue a coronarse Emperador, se cortó el cabello largo, para disminuir el dolor de cabeza: imitándole a porfía los señores de la Corte y a estos luego todos los demás, dando más que hacer a las tigeras, que aguellos siglos y los passados apenas las permitían despuntar las prolijas cabelleras.

En una edición de El Quijote de 1798 comentando la época de Cervantes también se recoge este suceso:

Una de las modas más permanentes del tiempo de Cervantes fue la del pelo. Traíase cortado a raíz de la cabeza, y esta moda duró en España más de 80 años. Introdúxola el emperador Carlos V por necesidad, según lo refiere el señor Sandoval en su Historia por estas palabras: Con estos caballeros, dice, salió el Emperador de Barcelona (el año de 1529.) donde porque él se cortó el cabello largo, por achaque de dolor de cabeza, se le quitaron todos los que le acompañaban, con tanto sentimiento, que lloraban algunos. Permaneció este uso de pelo corto todo el reynado de Felipe II. El de Felipe III en que murió Cervantes, y principios del de Felipe IV. En cuyo tiempo se fue introduciendo la barba larga, los copetes, los tufos, las guedexas o mechones, el cabello partido en crencha y las patillas.

Nos puede parecer sorprendente esa idea del emperador Carlos pero aún más sorprendente es que sigue vigente cinco siglos después. En numerosos foros de internet se vuelve a plantear la relación entre pelo largo y migrañas, indicándose incluso que algunos neurólogos recomiendan un buen corte de pelo. Y es que como escribió mi admirado William Faulkner, “El pasado nunca se muere, ni siquiera es pasado.”

Para leer más:

La entrada Migraña, bótox y pelo aparece primero en Naukas.

Related posts:

  1. ¿Cómo gestiona nuestro cerebro el dolor?
  2. El ingrato destino de Angelo Solimán
  3. El Panteón de Roma, ¿un gigantesco reloj solar?
23 Mar 03:50

La conferencia médica más apoteósica de todos los tiempos

by Shora

Publicado en MedTempus - Blog de medicina y salud

Doctor sorprendido La conferencia médica más apoteósica de todos los tiemposLa comercialización del sildenafilo (Viagra) en 1998 supuso toda una revolución en el tratamiento de la disfunción eréctil y en las sábanas de muchos hogares. Antes de ello, las únicas y aparatosas opciones eran la bomba de vacío, las prótesis e implantes y la inyección de fármacos vasoactivos en el pene. Sobre este último método, llama la atención que no fuera hasta los años 80 cuando el Dr. Giles Brindley consiguió desarrollar con éxito los primeros tratamientos farmacológicos para estimular la erección. Sin embargo, lo más sorprendente de su historia no fueron sus descubrimientos y avances en la medicina (que fueron muchos y variados) sino la forma en la que este excéntrico doctor presentó al mundo sus hallazgos, en la que sería la conferencia médica más apoteósica de todos los tiempos. Uno de los asistentes, que jamás olvidaría dicha charla, narró los detalles en extensión en: Cómo (no) comunicar la información científica novedosa: memorias de la famosa conferencia de Brindley. Esta es una breve descripción de lo que pasó, basada en su narración:

Como tantas otras asociaciones médicas, la Sociedad Urodinámica de Estados Unidos se reunió en Las Vegas en el año 1983 para compartir entre los colegas de profesión los más recientes avances en su campo de especialidad. Uno de los invitados para dar una conferencia era el citado Dr. Brindley con el anodino título de “Terapia vasoactiva para la disfunción eréctil”. Los asistentes a esta conferencia que tuvo lugar durante la tarde (alrededor de ochenta personas, entre médicos y sus parejas) acudieron a ésta como a cualquier otra, completamente ajenos a lo que estaba por suceder.

El primer detalle anómalo que notaron los asistentes fue la extraña vestimenta de Brindley. En lugar de llevar el característico traje de corbata, llevaba un holgado chándal azul. Además, aparecía notablemente nervioso y andaba de forma rara. Cuando Brindley subió al estrado para comenzar su presentación el espectáculo comenzó.

El galeno comenzó explicando su hipótesis de que se podía inducir una erección inyectando fármacos vasoactivos en los cuerpos cavernosos del pene (hoy suena a perogrullada, pero en aquel entonces era toda una novedad). Como no disponía de ningún modelo animal adecuado para probar esta pintoresca hipótesis, comentó que decidió recurrir a una de las tradiciones médicas más antiguas: experimentar con su propio cuerpo. Así que, ni corto ni perezoso, él mismo se inyectaba en sus experimentos diferentes sustancias vasoactivas (papaverina, fentolamina…) para comprobar el grado de erección y tumefacción que conseguía con ellas. Lo siguiente que tuvieron que contemplar los asistentes a la conferencia fue una sucesión de 30 diapositivas con fotografías de su propio pene con diferentes grados de tumescencia tras la inyección de dichos fármacos. Los resultados de sus experimentos quedaron cristalinos para el público.

Pero eso no era suficiente para Brindley. Metódico, él mismo reconoció que no podía descartar en la presentación de sus experimentos que la estimulación erótica no hubiera desempeñado ningún papel en estas erecciones. Así que planteó la siguiente situación (que ya dejaba entrever lo que estaba por suceder): ninguna persona normal consideraba estimulante dar una conferencia ante un gran público como para provocarle una erección. Por esa razón, explicaba, se había inyectado papaverina en su habitación del hotel antes de acudir a su conferencia y, por eso, llevaba ropa suelta (el famoso chándal azul). Así que, en pos de la credibilidad y convicción de sus hallazgos, decidió hacer una demostración en vivo y en directo de su hipótesis: se apartó del estrado para ser visible ante el público y entonces se apretó los pantalones de su chándal en torno a los genitales para demostrar su erección. El público quedó estupefacto. Laurence Klotz, uno de los asistentes, detalla lo que sucedió a continuación:

El profesor Brindley no estaba satisfecho. Miró escéptico hacia sus pantalones y agitó la cabeza con consternación. “Desafortunadamente, esto no muestra los resultados claramente”. Fue entonces cuando se bajó los pantalones y los calzoncillos, dejando al descubierto un largo, delgado y claramente erecto pene. La sala se quedó en silencio. Todo el mundo había dejado de respirar.

 

Pero el mero hecho de exhibir públicamente su erección desde el estrado no era suficiente. Hizo una pausa y se planteó su siguiente movimiento. El drama se palpaba en el ambiente. Entonces él dijo con gravedad: “Me gustaría darle la oportunidad a alguien de la audiencia de confirmar el grado de tumescencia”. Con sus pantalones por las rodillas, y andando como un pingüino por las escaleras, se acercó a los urólogos y sus compañeras de la primera fila (para su horror). Conforme él se acercaba, con la erección al frente, cuatro de las cinco mujeres de las primeras filas levantaron los brazos, casi al unísono, y gritaron a viva voz. Los méritos científicos de la presentación habían sido abrumadores (para ellas) por el novedoso e inusual modo de presentarlos.

 

Parece que los gritos conmocionaron al profesor Brindley, que rápidamente se volvió a poner los pantalones y volvió al estrado, terminando la conferencia. La multitud se dispersó en un estado de atónito desorden. Imagino que los urólogos que acudieron con sus compañeras tuvieron mucho que explicar. El resto es historia. 6 meses más tarde, el profesor Brindley publicó sus resultados.

 

Y así quedó para el recuerdo y la posteridad una de las charlas médicas más memorables de la historia.

Enlace al artículo La conferencia médica más apoteósica de todos los tiempos

Artículos relacionados:

  1. Aquellos tiempos en los que la cocaína, el opio y la heroína campaban a sus anchas…
  2. La precuela médica definitiva
  3. Sodaconstructor: Crea criaturas teniendo en cuenta física y biología
  4. Tranquilos, hay para todos