martes, 5 de noviembre de 2013

Más cosas de la informática que no te cuentan.

Lo cierto es que en la entrada anterior había descrito algunas cosas que por lo general no te cuentan y que es mejor aprenderlas en cabeza ajena que en la propia más que nada porque vas a poder dormir mejor y no pasarte hasta las tantas arreglando algo de lo que encima no tienes ni culpa. Pues aunque la entrada anterior es bastante larga sigue habiendo muchas cosas que no te cuentan y que no esta de más saberlo. Voy a contar alguna más.

El medio ambiente.

Esto puede sonar a perroflauta de Greenpeace pero el saber donde colocar el CPD (o tus máquinas es fundamental) Por ejemplo:
¿Humedad aquí? ¡que va!
  • Si las pones en el sótano tu enemigo es el agua. Aunque te pienses que en medio de de Villanueva del Secano estás seguro, algo te va a joder. Bien sean las inundaciones que no se recordaban desde 1912, la tubería de desagüe del baño de arriba o el botijo que de derrama, siempre algo te va a joder la marrana. Encima, se suele caer sobre el manojo de cables que no está bien aislado y que dejaste así porque lo ibas a arreglar en un momento .... justo antes antes de ir a ver de la final de la Eurocopa de 2008.
  • Si las pones en una parte elevada (Bajo cubierta, piso, ...) La has cagado. Seguro que no has medido el tamaño del ascensor, el peso máximo, el tamaño de la puerta o hay un escalón. Ojo al sol, que puedes tener problemas de refrigeración.
Luego hay que tener cuidado con las temperaturas. Las máquinas modernas son verdaderas estufas (un rack "cargadito" de blades puede chupar 24 KW con lo que podéis imaginar el calorcito que sale por detrás)  y el sacar todo ese aire caliente no es tarea fácil. Y cuanto peor circulación de aire tengas, más dinero hay que meter en refrigerar y mayor consumo. A eso se le llama PUE (Power usage effectivenes) y es un elemento básico para medir la efectividad del CPD. Uno malo puede gastar por cada KW utilizado en computación otro para enfriar (y al precio de la electricidad, podéis hacer cálculos) Los cafres de Google dicen andar por el 1,08 .... no está mal.

Otra cosa importante, sobre todo si se pone en en un piso es conocer el peso que soporta el suelo. Ya ha pasado que al meter algún chisme gordo se han producido problemas estructurales. Y por cierto, el peso soportado se debe medir en kg/unidad de superficie. Un suelo puede aguantar 1000 kilos de peso .. pero a lo mejor no en un metro cuadrado (no me lo invento. Ha pasado)

Pon un enchufe ....

No, no estamos hablando de colocarse en el ayuntamiento de Bustelfollado (aunque tampoco estaría mal) sino de empezar a colocar tomas de corriente y no morir en el intento (y por cierto, nunca mejor dicho) Hace años para montar máquinas les decías a los chispas: Nano, ponme una regleta de enchufes aquí (bueno, salvo que trabajaras con mainframes que estos son raros hasta para los enchufes) 
Pues ahora no .... ahora la regleta se llama PDU (Power Distribution Unit) y como tienen un mogollón de amperios hay que andar con mucho cuidado de no reventar la instalación. Hay tropecientos tipos de conectores (bueno, siempre los hubo, pero es que ahora se usan) y el manual de una puta regleta tiene .... ¡130 páginas! ¿no te lo crees? Pues compruébalo tu mismo (y hay varios manuales más)

Como antes comenté, actualmente un rack cargadito de blades (por ejemplo HP c7000) puede tener unas demandas de corriente más que importantes. Y no solo por potencia eléctrica, sino que ya el hecho de meter las tomas de corriente puede ser todo un poema. Por ejemplo, ponemos tres chasis en un rack (si aguanta el peso) Cada uno de ellos lleva dos PDUs de 32A (7 KW duplicados) con lo que tenemos que conectar 6 (que ya ocupan buena parte del rack) y eso se suele conectar con cables como el de la foto.

CETAC de 32A. Fuente Wikipedia
Colocar media docena de estos conectores, junto con sus cables correspondientes (que de finos y flexibles tienen poco) no es una cosa precisamente trivial, sobre todo si en los racks de al lado tenemos otra configuración similar. 
Para alimentar todo eso (no olvidemos que estamos hablando de un único rack) se necesitan dos circuitos independientes de 96A (24 KW cada uno) Vamos, el presidente de Endesa estará frotándose las manos.

Tampoco vamos a ser tan negativos. En ese único rack tenemos hasta 48 servidores con hasta 96 CPUs y unos 1152 cores (usando procesadores de 6 cores) o lo que es lo mismo, unos 50 racks con servidores con dos CPU's de un solo core que era lo que habían antes de 2006. Vamos, que los chismes estos son caros, pero si lo comparamos con lo que costaban 500 servidores biprocesador de 2005 como que te ahorras unos cuantos €. Y no te digo lo que te ahorras en energía. No hace mucho en una presentación me hicieron una comparativa que a igual de potencia de cálculo, tres blade (no chasis, el servidor solo) con 12 cores era superior a 50 servidores biprocesador single core. Y no te digo en memoria. Esos servidores podían tener 2-4 Gb de RAM como mucho cada uno. Ahora no es raro verlos con 128 o 256 Gb de RAM (cada uno)
Supongo que ni que decir tiene que hablo de x86. Otras arquitecturas de procesador como SPARC o PA-RISC cada vez vas más hacia atrás. Sobrevive el POWER de IBM pero claro .... primero se apagará el Sol y luego el último mainframe de IBM (con COBOL, por supuesto)

¿Son más baratas las nuevas máquinas? Pues valen una pasta ...

Todo depende de la vara de medir.
Razón no te le falta a quien piense esto pero claro, hay que tener en cuenta la vara de medir que se use. Si miramos lo que nos cuesta un simple servidor pues a lo mejor la diferencia de precio no es significativa pero quizás el número de servidores no sea el mejor argumento. Lo cierto es que los informáticos, a diferencia de los economistas somos gente seria y procuramos no hacernos trampas a nosotros mismos (salvo en los videojuegos o para pillar cacho claro) y casi que queremos comparar cosas similares. Lo normal para comparar el coste de dos discos de igual características (no me vale que se compara un disco de 4 Tb y 5.200 RPM con un SAS de 15K rpm y 600 Gb) 

Un servidor "majo" moderno puede costar de 3 a 5.000 napos (no confundir con el PC cutre de cierta tienda de color rojo) y lo cierto es que lleva costando una cifra similar hace unos cuantos años. Claro que ahora por el mismo precio podemos tener:

  • Una docena de cores vs. dos ó cuatro (hablando de sistemas biprocesador) Un orden de mejora de un 300% en el peor de los casos, eso sin tener en cuenta que la capacidad de proceso por Ghz es muy superior en los procesadores modernos que en los antiguos (y hablo de 2006, no de 1985)
  • 256 Gb de RAM vs. 16 o menos. Un 1600% más de capacidad
  • FC de 8 Gb vs FC de 4 Gb 
  • HD de 1 Tb (o más) vs. HD de 60 Gb.
Al final resulta que una máquina moderna equivale a tener 10 máquinas antiguas si se sabe aprovechar. Lo interesante es que el consumo eléctrico de esa máquina única es aproximadamente la décima parte de esas 10 máquinas y habida cuenta que un KW de consumo continuo al año son más de 1.000 € (largos) ya tenéis una justificación para que el responsable económico cambie esos servidores tan chulos con el logo del Cobi que compró "hace cuatro días y que todavía sirven"

Un gatico que siempre atrae lectores

Pues eso, que si pones una foto de gaticos arrasas como te pongan en menéame.

¿Qué pinto yo en una entrada sobre ordenadores?
Aquí hay gato encerrado.

Dedicatoria

Habrá que dedicar esta entrada a los de #listaBOFHers que parece que les ha molado la anterior.

No hay comentarios: