Jump to content
JuanjoSVQ

HPC (High Performance Computing)

Recommended Posts

Hace 37 minutos, jp dijo:

Bueno:

Es una buena pregunta. La respuesta que dan, es que si quieres pongas una GPU externa (una eGPU), pero claro, en este caso lo que cuentas de montar un cluster con varios minis, pues como que no....

Intel puede prometer lo que quiera. Pero no la vamos a creer, al menos yo...Ya lleva demasiadas promesas y chapuzas hechas últimamente. Incluso tenía alguna arquitectura de supercomputación CPU+GPU llamada Xeon Phi....Otra chapuza integral....

Saludos

JP

 

 

Pues para ser una chapuza, el Tianhe-2 que está el 4º en la lista top500 lleva 3 en cada nodo.

Share this post


Link to post
Share on other sites

 

Hace 2 horas, JuanjoSVQ dijo:

Pues para ser una chapuza, el Tianhe-2 que está el 4º en la lista top500 lleva 3 en cada nodo.

 

Buena observación 😂. Pero no es exacta. Lo que lleva en cada nodo es un Intel Xeon 2692 con una red Th-express y el Xeon phi que comentas....y juraría que en la última actualización no lleva el Xeon Phi (creo que los iban a dejar de hacer), pero no estoy seguro...

Si, edito el post para confirmarte, que en la última actualizacion ha desaparecido el Xeon Phi...,😂😂😂

https://top500.org/system/177999

Venga, tú lo has querido..😂😂😂Has  visto quien son el número 1 y 2?

https://top500.org/lists/2018/11/

Son dos cacharrejos de IBM con la arquitectura Power9 y con  una red de interconexión  Infinband (la que tenemos para mis alumnos 😂😂😂)... y con que gráficas?  GPUS. Si...NVIDIA....La Volta GV100, de la cual he hablado alguna  vez aquí....La GTX 2080, es una versión de consumo de la plataforma Volta... Apple que no te enteras...pon NVIDIA hombre 😂😂😂

Bromas aparte:

-La red Infiniband nuestra no le llega a esa Infiniband ni a la suela de los zapatos. aunque no está mal 😂

- Pero.....El problema es cuantos nodos lleva y como miden eso....Cogen un soft secuencial (Linpack) y lo hacen correr en todos los nodos...y multiplican por la cantidad de nodos. En el test de potencia bruta no intervienen las GPUs. Son máquinas salvajes que necesitan una potencia eléctrica salvaje (mirad la columna de la derecha). Creo recordar que las GPUs no intervienen para nada en esas medidas de potencia bruta (con el linpack)...Es todo pura fachada y publicidad. Pero bueno, como digo son máquinas salvajes...y muy potentes

- En España no tenemos nada parecido. Creo que la más potente es el MareNostrum, que está en Barcelona. En su Centro de Supercomputacion (Barcelona Supercomputing center).

Saludos

 

JP

P.D. Disculpad, si he editado el post varias veces...

Edited by jp
  • Me gusta 1

Share this post


Link to post
Share on other sites
Hace 37 minutos, jp dijo:

En España no tenemos nada parecido. Creo que la más potente está en Barcelona. En su Centro de Supercomputacion.

El MareNostrum de Barcelona (¿a todos les ponen nombre?), diría que ya es su cuarta versión, està en el puesto 25 de esta lista. Por lo leído a mediados del 2017 estaba en el 13, ni que los regalarán con los cereales.

¿Tan rentables son para que cada pocos años lo rehagan completamente gastándose una burrada de millones? ¿O es uno de esos gastos necesarios para avanzar pero que nunca se rentabilizan directamente?

Edited by APB

Share this post


Link to post
Share on other sites
Hace 34 minutos, APB dijo:

El MareNostrum de Barcelona (¿a todos les ponen nombre?), diría que ya es su cuarta versión, està en el puesto 25 de esta lista. Por lo leído a mediados del 2017 estaba en el 13, ni que los regalarán con los cereales.

Cierto....

https://www.top500.org/system/179067

Las van actualizando continuamente. Y se quedan antiguas enseguida.....😂😂😂. Ya digo que hay mucha publicidad... de a ver quien la tiene más...potente..😂😂😂

Saludos

JP

P.D. Y lo del nombre...bueno....Me parece que el Gallego se llama FinisTerrae...está en el CESGA...El centro de supercomputacion de Galicia...

Ahhh edito. El que usamos con mis alumnos se llama Kahan. En honor del  matemático Canadiense William Kahan, que fue el que desarrolló cosas de  la notación IEEE754 de los computadores actuales.

Edited by jp

Share this post


Link to post
Share on other sites

MareNostrum, FinisTerrae, etcae. Debe ser que en latín queda más culto. 😁

O así se evitan tensiones idiomaticas.

Edited by APB

Share this post


Link to post
Share on other sites
Hace 17 minutos, APB dijo:

MareNostrum, FinisTerrae, etcae. Debe ser que en latín queda más culto. 😁

El nuestro (el que usamos con los alumnos) no....es Kahan. 😂😂😂

Saludos

JP

Edited by jp

Share this post


Link to post
Share on other sites

Suerte que has editado tu mensaje explicando el origen de vuestro nombre, pensaba que era Klingon, Viquingo o alguna lengua que esté de moda entre los jóvenes. Inculto que es uno. 😔

Por si no has visto mi edición, que seguro que tú lo sabes:

¿Tan rentables son para que cada pocos años lo rehagan completamente gastándose una burrada de millones? ¿O es uno de esos gastos necesarios para avanzar pero que nunca se rentabilizan directamente?

Share this post


Link to post
Share on other sites
Hace 2 horas, jp dijo:

 

 

Buena observación 😂. Pero no es exacta. Lo que lleva en cada nodo es un Intel Xeon 2692 con una red Th-express y el Xeon phi que comentas....y juraría que en la última actualización no lleva el Xeon Phi (creo que los iban a dejar de hacer), pero no estoy seguro...

Si, edito el post para confirmarte, que en la última actualizacion ha desaparecido el Xeon Phi...,😂😂😂

https://top500.org/system/177999

Venga, tú lo has querido..😂😂😂Has  visto quien son el número 1 y 2?

https://top500.org/lists/2018/11/

Son dos cacharrejos de IBM con la arquitectura Power9 y con  una red de interconexión  Infinband (la que tenemos para mis alumnos 😂😂😂)... y con que gráficas?  GPUS. Si...NVIDIA....La Volta GV100, de la cual he hablado alguna  vez aquí....La GTX 2080, es una versión de consumo de la plataforma Volta... Apple que no te enteras...pon NVIDIA hombre 😂😂😂

Bromas aparte:

-La red Infiniband nuestra no le llega a esa Infiniband ni a la suela de los zapatos. aunque no está mal 😂

- Pero.....El problema es cuantos nodos lleva y como miden eso....Cogen un soft secuencial (Linpack) y lo hacen correr en todos los nodos...y multiplican por la cantidad de nodos. En el test de potencia bruta no intervienen las GPUs. Son máquinas salvajes que necesitan una potencia eléctrica salvaje (mirad la columna de la derecha). Creo recordar que las GPUs no intervienen para nada en esas medidas de potencia bruta (con el linpack)...Es todo pura fachada y publicidad. Pero bueno, como digo son máquinas salvajes...y muy potentes

- En España no tenemos nada parecido. Creo que la más potente es el MareNostrum, que está en Barcelona. En su Centro de Supercomputacion (Barcelona Supercomputing center).

Saludos

 

JP

P.D. Disculpad, si he editado el post varias veces...

Interesante

leeré un poco sobre infiniband 🙂

Pero si luego se equivocan al predecir el tiempo!!! 

Que envidia nos está dando!!! 

Me voy a acariciar mi antiguo Vic20 de Commodore y recordar su código máquina de 6502 😪 Me estoy haciendo viejo

Share this post


Link to post
Share on other sites
Hace 5 horas, APB dijo:

Suerte que has editado tu mensaje explicando el origen de vuestro nombre, pensaba que era Klingon, Viquingo o alguna lengua que esté de moda entre los jóvenes. Inculto que es uno. 😔

Por si no has visto mi edición, que seguro que tú lo sabes:

¿Tan rentables son para que cada pocos años lo rehagan completamente gastándose una burrada de millones? ¿O es uno de esos gastos necesarios para avanzar pero que nunca se rentabilizan directamente?

😂😂😂 muy bueno...

Respecto de la rentabilidad, supongo que depende del modelo de funcionamiento. 

En algunos países, sus gobiernos pagan la investigación. En España por ejemplo, hay proyectos de investigación con financiados con fondos locales, autonómicos, y Europeos. Otros de desarrollo con los famosos FEDER. Aunque os han recortado por todos los lados....

En otros hay empresas o Universidades privadas detrás (USA) por ejemplo....y se paga en función del uso de recursos de la máquina....Es muy variado.

En cualquier caso, hoy día por menos de esa burrada de millones, hay recursos de este tipo, por unos cuantos miles de €. Digamos que se ha “democratizado” el uso de estos recursos porque ya no hace falta este tipo de máquinas dedicadas...

En fin, que la investigación hay que pagarla. Que luego a los políticos se les llena la boca de decir que España no tiene ninguna Universidad entre las 200 primeras del mundo....Lo que no dicen es como se calcula eso (tener un premio Nobel  cuenta mucho), ni con que recursos contamos...Pero eso es otra historia. 😂

Saludos

JP

Edited by jp

Share this post


Link to post
Share on other sites
Hace 4 horas, JuanjoSVQ dijo:

Interesante

leeré un poco sobre infiniband 🙂

Pero si luego se equivocan al predecir el tiempo!!! 

Que envidia nos está dando!!! 

Me voy a acariciar mi antiguo Vic20 de Commodore y recordar su código máquina de 6502 😪 Me estoy haciendo viejo

Ok. La red es impresionante. Eso si, vale una pasta. Nosotros la usamos para Grado, Master y doctorados y temas de investigación.

Respecto del tiempo. Es verdad. Hacen falta más datos.😂

Respecto de la edad, dímelo a mi que empecé a dar clase, en el 91, Con las primeras asignaturas de paralelismo en el 95 y estamos en 2018. 😂..

Cuando me registré en este foro en 2001, estaba acabando la tesis (periodo estresante total) , y escribir en el foro, me servía de relax. Por eso le tengo tanto cariño a este foro.

Saludos

JP

 

 

Edited by jp

Share this post


Link to post
Share on other sites

Al final y siempre que haya entendido bien las cuentas el MareNostrum no cuesta tanto como pensaba. Solo 32 millones en equipos informáticos para el MN IV, con una amortización, entiendo que también es su vida útil, de 2 años.

No se cuántas partes de una generación se aprovechan en la siguiente pero viendo que se gastan anualmente 16 millones en el personal me parecen pocos para llegar al puesto 13. 

Ya puestos unos datos más:

  • Se recuperan 5 millones con la prestación de servicios
  • El total de subvenciones es de 23,5. millones 

 

Todos los valores son del 2016 sacados de esta web: https://www.bsc.es/discover-bsc/transparency/audited-financial-statements

Share this post


Link to post
Share on other sites
Hace 7 horas, APB dijo:

Al final y siempre que haya entendido bien las cuentas el MareNostrum no cuesta tanto como pensaba. Solo 32 millones en equipos informáticos para el MN IV, con una amortización, entiendo que también es su vida útil, de 2 años.

No se cuántas partes de una generación se aprovechan en la siguiente pero viendo que se gastan anualmente 16 millones en el personal me parecen pocos para llegar al puesto 13. 

Ya puestos unos datos más:

  • Se recuperan 5 millones con la prestación de servicios
  • El total de subvenciones es de 23,5. millones 

 

Todos los valores son del 2016 sacados de esta web: https://www.bsc.es/discover-bsc/transparency/audited-financial-statements

Bueno. Lo que ocurre es que el uso de ese tipo de equipos ha pasado de ser fundamental cuando empezó todo el tema del HPC (High Performance Computing), hace años, a ser casi anecdótico. Hoy día con un ordenador personal más o menos potente con uno o dos Xeon multicore y alguna GPGU tienes una potencia de cálculo importante. Vendría a ser lo que un nodo de un súpercomputador, o trayendo el tema al mundo Mac, un imacPro...o el futuro MacPro.

Fijate que con un micro con varios cores, con mismo  un Air, ya puedes hacer cosas...

Por ejemplo, el trabajo que hemos puesto a los alumnos este año en la asignatura de Computación Paralela yo se lo enseño resuelto en mi MacBook Air de 2013 (antes en un mini de 2006). Es un dual core con hyperthreading (cores capados). 

Simplemente lo que hago (por mi cuenta) es darles la posibilidad de instalarse los entornos de programación que usamos en Linux adaptados para MacOsx (por si alguno los quiere usar).

-OpenMP. Para multithreading. El compilador de C (gcc) de Linux lo lleva, pero el que trae MacOsx no. Hay que instalarlo (puedes usar macports), para poder trabajar en multicore. Ya que Apple usa otras librerías. 

-MPI. Una librería con paso de mensajes. Hay que instalarlo aparte tanto en MacOsx (puedes usar también el macports o no) como en Linux. Esta es una de las librerías a las que hacen referencia en la web del top500( donde pone MPIch, que es una versión de MPI).

 

De ahí que para este tipo de trabajos en Mac es bastante interesante tener micros con varios cores. Por ejemplo todos los que lleva el nuevo mini, en cualquiera de sus versiones. Ya no digo un Xeon de esos con un montón de cores( los del iMac Pro)...,que funcionan muy bien. Pero vamos, no hace falta tanto.

Saludos

JP

Edited by jp
  • Me gusta 1

Share this post


Link to post
Share on other sites
Citar

4   China National Super Computer Center   4,981,760.   61,444.5.   100,678.7.   18,482

5.  Swiss National Supercomputing Centre     387,872.    21,230.0.     27,154.3.     2,384

Entiendo que el gasto energético depende casi exclusivamente del número de cores, los tops no se deben plantear usar los cores de bajo consumo, pero viendo las cifras o los chinos pierden TFlops por todos lados o los suizos mienten como políticos.

¿Como es posible que con 12,5 veces más cores no consigan ni triplicar los TFlops?  Y les pasa lo mismo con el número 3, también chino. Doblan los cores del 4 para aumentar solo un 50% el rendimiento.

¿Tanta diferencia hay entre generaciones de procesadores o es que los chinos usan chinos con ábacos en lugar de cores?

 

Supongo que con tu comentario anterior explicas el poco retorno obtenido mediante las prestaciones de servicio. Aunque no sé nada sobre HPC imagino que no todos se gastan esos dineros por orgullo o para jugar al Fortnite a 8K y 120MHz.

Que los ordenadores básicos ya puedan ejecutar vuestros programas, imagino que simples no deben ser, debe ser fantástico para los estudiantes, profesores y la universidad y para las empresas medianas que solo necesitan invertir algo más para así tener un buen nivel de potencia. Pero imagino que deben quedar un montón de grandes proyectos que si requieran estos mastodontes, hacienda aparte. Me refiero a proyectos empresariales no los científicos del tipo "vamos a simular el cerebro de una vaca" o "como se comportan un millón de hormigas".

He leído por ahí que para el 2020 quieren llegar al exaFlop, un millón de TFlops. ¿Solo para medírsela?

 

PD: No se que pensará alguien busque información del mini y empiece por estas últimas páginas.

Edited by APB

Share this post


Link to post
Share on other sites

Si alguna vez quisiste saber algo de HPC pero no sabias a quien preguntar o para que demonios usan esos monstruos de ordenadores, aprovecha ahora que entre los foreros contamos con un profesor de la materia al que además le gusta hablar del tema en su tiempo libre.  Es cierto, algunos llegan a trabajar en lo que les gusta.😄

Para no seguir con el offtopic de:

Abro este hilo con mi último mensaje, tampoco estaría mal que algún moderador trasladara algunos de esos mensajes.

 

Edito : Este era el primer mensaje del hilo antes del traslado de los mensajes realizados por Jorge , por eso la presentación inicial.

 

Edited by APB

Share this post


Link to post
Share on other sites

Bueno hombre. Gracias por la presentación 😂😂 pero ya llevo años en el foro. Los más veteranos si que saben por donde respira uno...

Respecto de la pregunta que me haces. Bueno. Hay que ver  “que tipo de cores” y como  han sumado ahí. Faltan datos, pero parece que en algún caso (esto es hablar por hablar) han debido sumar “cores” de arquitecturas diferentes. Con lo cual...a saber. Cores de CPU, GPU...etc.. En principio las gráficas de NVIDIA tienen una animalada de cores. Y unos consumos eléctricos realmente salvajes. Y ahora en la arquitectura v100 (Volta) encima les han metido cores mucho más especializados. Creo recordar que llevan lo que llaman “Tensor Cores”. Y luego que la propia NVIDIA se dedica a “distinguir gamas” en función del tipo de acceso a memoria que realice (y como lo realice) la tarjeta. Para entendernos, nada que ver entre una GTX , una Titan o una Tesla (estas últimas ni si quiera tienen salida de vídeo). Solo son para cálculo.

Apple hombre ponnos una NVIDIA 😜

No creo que los Chinos mientan. Más bien es el tipo de arquitectura que han usado. Ya te digo que la forma de medir es totalmente artificiosa. Nos dicen que la potencia “de pico” que es totalmente real, pero con matices. Pero otra cosa es que sirva para algo concreto. El Linpack es un paquete de rutinas de álgebra lineal (Linear Algebra Package). Muchas veces usan una rutina concreta súper optimizada, para medir prestaciones. Por ejemplo un producto matricial. O la resolución de un sistema de ecuaciones.

Respecto de lo que comentas de que ahora podamos usar nuestros programas y aplicaciones con ordenadores más simples, es una maravilla. Recuerdo cuando empecé (hace muchos años) que todos mis compañeros, entonces estudiantes de doctorado compartíamos una cuenta de un Cray creo recordar que del ETH de Zúrich en Suiza. Aquí no había nada...Eran otros tiempos...Luego se fueron montando Grupos de investigacion, primero en USA, luego en Europa. Sí, también en España. Recuerdo aún la primera vez que estuve en un Congreso, con “supercapos de estos”😂😂😂. Algunos todavía en activo como el desarrollador del Linpack, o como el director actual del BSC(en España), ya mayores, pero en activo. Otros ya jubilados...De todo, vamos...

Para acabar lo que me comentas de la potencia y las máquinas. Bueno la realidad es que esas máquinas no están ejecutando un solo programa sino miles la vez, con miles de proyectos. Programas de medicina, arquitectura, ingeniería, etc...

Ya me hubiera gustado a mi tener una sencillo Mac multicore para hacer la tesis. La de faena y horas que me hubiera ahorrado.

Cada vez los programas son más complejos y requieren más potencia de CPU. 

¿Alguien se imaginaba hace años que pudiera decir cosas a su teléfono o a un altavoz como? :

“Hola Alexa”, ponme música relajante en Spotify 😂😂😂

O hola Siri, enciende la calefacción 😂😂😂

Saludos

JP

Edited by jp
  • Me gusta 1

Share this post


Link to post
Share on other sites

A ti seguro que te sirve, en la lista hay más información que no había copiado especificando nombre - modelo, CPU, red, GPU y fabricante:

Citar

 

Del 4: Tianhe-2A - TH-IVB-FEP Cluster, Intel Xeon E5-2692v2 12C 2.2GHz, TH Express-2, Matrix-2000 , NUDT 

Del 5: Piz Daint - Cray XC50, Xeon E5-2690v3 12C 2.6GHz, Aries interconnect , NVIDIA Tesla P100 , Cray Inc.

 

Aunque los chinos indicaran todos los cores de todas las GPU y los suizos no, lo que no me cuadra es que el consumo si que aumenta casi proporcional al numero de cores, 12,5x de cores por 9x de consumo, pero el rendimiento solo un 3x. Sabiendo que estos equipos los actualizan en dos o tres años y que los rendimientos de los procesadores últimamente no aumentan demasiado entre generaciones, ¿o eso solo se aplica en los procesadores generalistas?, me parece un gasto absurdo de recursos para tan poco rendimiento. Aunque ¿que sé yo?

Fijándome en los dos primeros, americanos, parecen estar en la línea del suizo. Con muchos menos cores y menos consumo consiguen más potencia. O los fabricantes están engañando a los chinos como chinos o alguien mide diferente.

  • ¿No estaremos en una versión HTC de pulgadas/centímetros que tantos desastres a causado?
  • ¿No hay un software estándar para hacer estas mediciones?
  • En los consumos ¿incluyen el de la refrigeración necesaria para que no se fundan?

 

Ejecutando miles de programas a la vez. Lo he leído muchas veces pero entonces ¿para que uno tan grande en lugar de muchos medianos distribuidos en el territorio? Entiendo que lo hagan algunas veces para no tenerlo parado esperando al siguiente programa "necesitado de cores" pero si casi siempre están en esa situación deja de tener sentido tantos tan grandes. Teniendo uno grande en Europa, otro en Norteamérica y algunos más en los países asiáticos, seguro que no todos los países querrían compartir un único equipo, se podrían rentabilizar mejor usándolos solo para las grandes necesidades y, como decía, muchos de más pequeños sin tanta necesidad de actualizarse distribuidos en esos territorios. ¿O eso es esperar demasiado raciocinio de los humanos?

 

PD: Mi presentación no era para los viejos del lugar para los que eres de sobra conocido. 🙂

Edited by APB
  • Me gusta 1

Share this post


Link to post
Share on other sites

Intuyo que lo de usar todo el ordenador a la vez para un mismo programa tendría unos problemas de sincronización/conexión importantes, así que mejor varios programas a la vez usando cada uno unos pocos cores. Cada programa tendría que estar ejecutándose más tiempo pero podrías tener varios a la vez y sería más eficiente porque ahorrarías ancho de banda entre nodos. O igual no van los tiros por ahí.

  • Me gusta 1

Share this post


Link to post
Share on other sites
Hace 4 horas, APB dijo:

A ti seguro que te sirve, en la lista hay más información que no había copiado especificando nombre - modelo, CPU, red, GPU y fabricante:

Aunque los chinos indicaran todos los cores de todas las GPU y los suizos no, lo que no me cuadra es que el consumo si que aumenta casi proporcional al numero de cores, 12,5x de cores por 9x de consumo, pero el rendimiento solo un 3x. Sabiendo que estos equipos los actualizan en dos o tres años y que los rendimientos de los procesadores últimamente no aumentan demasiado entre generaciones, ¿o eso solo se aplica en los procesadores generalistas?, me parece un gasto absurdo de recursos para tan poco rendimiento. Aunque ¿que sé yo?

Fijándome en los dos primeros, americanos, parecen estar en la línea del suizo. Con muchos menos cores y menos consumo consiguen más potencia. O los fabricantes están engañando a los chinos como chinos o alguien mide diferente.

  • ¿No estaremos en una versión HTC de pulgadas/centímetros que tantos desastres a causado?
  • ¿No hay un software estándar para hacer estas mediciones?
  • En los consumos ¿incluyen el de la refrigeración necesaria para que no se fundan?

 

Ejecutando miles de programas a la vez. Lo he leído muchas veces pero entonces ¿para que uno tan grande en lugar de muchos medianos distribuidos en el territorio? Entiendo que lo hagan algunas veces para no tenerlo parado esperando al siguiente programa "necesitado de cores" pero si casi siempre están en esa situación deja de tener sentido tantos tan grandes. Teniendo uno grande en Europa, otro en Norteamérica y algunos más en los países asiáticos, seguro que no todos los países querrían compartir un único equipo, se podrían rentabilizar mejor usándolos solo para las grandes necesidades y, como decía, muchos de más pequeños sin tanta necesidad de actualizarse distribuidos en esos territorios. ¿O eso es esperar demasiado raciocinio de los humanos?

 

PD: Mi presentación no era para los viejos del lugar para los que eres de sobra conocido. 🙂

 

Es que ya te digo que faltan datos. Las GPUS tienen muchos más cores con unos consumos absolutamente salvajes.

Lo que dices del aumento de los rendimientos y procesadores. Bueno eso es un problema concreto de Intel. En NVIDIA no ha ocurrido eso, al menos hasta la antepenúltima y penúltimas arquitecturas que he tenido acceso Kepler y Pascal. De Volta aún no tengo experiencia. De momento en el último proyecto no nos han dado fondos  para ‘catarla’.

Respecto de las dos americanas son de la arquitectura Power9. Supongo (pero no lo sé con seguridad) que son procesadores  servidores de la arquitectura Power de IBM. Nada que ver con Intel. No tengo acceso a ellas. 

Pero aquí tienes info sobre ella

https://www.phoronix.com/scan.php?page=article&item=power9-epyc-xeon&num=1

Los rendimientos dependen mucho del tipo de test utilizado. Y hay muchas críticas a Linpack. El propio autor, Jack Dongarra, probablemente el número 1 a nivel mundial en HPC lo ha comentado muchas veces. Yo hace años que ya no uso ese tipo de máquinas. Creo que la última vez que estuve con él, en Oporto, me enseñó su última Palm...en una cena 😂😂😂, hace 16 años... así  que ya ha llovido.....Asi que ya te digo....😂😂😂

En serio:

Aqui te dejo más info.

https://en.m.wikipedia.org/wiki/LINPACK_benchmarks

Al final los rendimientos tienen que evaluar máquinas tan diferentes que es muy difícil obtener un benchmark standard.

lo de los consumos y la refrigeración, ni idea...

Lo que dices de muchos pequeños, tiene mucho sentido. Es lo que pasa al final, que es mucho más razonable. Con un bipro con un par de Xeons y varias Tesla, nos arreglamos...

En mi caso particular me dedico a obtener algoritmos para funciones matriciales que mejoren lo que hay hasta la fecha...para aplicarlos en problemas de fisica e ingenieria En ese sentido hacen falta equipos multidisciplinares. Físicos, matemáticos, informáticos y hasta un ingeniero de telecos tenemos 😂😂😂. No se puede saber de todo.

Lo del raciocinio de los humanos....Bueno, te podría contar cosas de las envidias entre investigadores de ciertos países, pero mejor lo dejamos 😂😂😂. No es lo mismo ser español que ser inglés, por ejemplo.

Saludos 

JP

Edited by jp
  • Me gusta 1

Share this post


Link to post
Share on other sites
Hace 7 horas, Andropov dijo:

Intuyo que lo de usar todo el ordenador a la vez para un mismo programa tendría unos problemas de sincronización/conexión importantes, así que mejor varios programas a la vez usando cada uno unos pocos cores. Cada programa tendría que estar ejecutándose más tiempo pero podrías tener varios a la vez y sería más eficiente porque ahorrarías ancho de banda entre nodos. O igual no van los tiros por ahí.

Pues realmente depende del tipo de arquitectura que manejes. Son máquinas reconfigurables en las que con sistemas de colas muy sofisticados las pueden hacer trabajar de una forma o de otra.

Lo mismo un día trabajan de una forma, otro día de otra...

Personalmente pienso que ese tipo de máquinas hoy día tiene mucho menos sentido que hace años

Si es verdad lo que comentas de los problemas que puede haber a nivel de usar varios programas a la vez. Pero claro depende del tipo de máquina. Por ejemplo, en la que usamos con los alumnos en mi Departamento (Kahan) tiene 6 nodos biprocesadores AMD Opteron 6272  unidos con una Infiniband. Si varios usan la Infiniband a la vez con MPI, los resultados temporales de la ejecución de un programa, pues se degradan.

Para evitarlo, se pueden hacer pruebas en un nodo (con hasta 32 cores). Y si todo va bien....pues que usen todos.

En cualquier caso hay un sistema de colas que limita todo, un solo trabajo por nodo., el tiempo por trabajo, y además no permite lanzar trabajos en interactivo (solo batch).

Saludos

 

JP

Edited by jp
  • Me gusta 1

Share this post


Link to post
Share on other sites

Y el sistema de colas, ¿desde dónde se controla? Hay una especie de "nodo central"? Yo la única vez que usé un cluster fue con Xgrid y un par de PowerMacs antiguos (por curiosidad) y ahí sí que lanzaba los trabajos desde un ordenador principal, pero no sé si en clusters más grandes eso sigue siendo así.

  • Me gusta 1

Share this post


Link to post
Share on other sites
Hace una hora, Andropov dijo:

Y el sistema de colas, ¿desde dónde se controla? Hay una especie de "nodo central"? Yo la única vez que usé un cluster fue con Xgrid y un par de PowerMacs antiguos (por curiosidad) y ahí sí que lanzaba los trabajos desde un ordenador principal, pero no sé si en clusters más grandes eso sigue siendo así.

Mas o menos....Es lo que se llama un "frontend". Es un PC encargado de coontolar todos esos detalles. Es un sistema de colas basado en un standard llamado PBS. Y el comando que permite lanzar todos esos parametros es el "qsub"....

Saludos

JP

  • Me gusta 1

Share this post


Link to post
Share on other sites

Viendo que usas los comandos específicos para la consola (Terminal en MacOS) ¿no me dirás que, gastándose ese dineral en equipos, a nadie se le ha ocurrido crear un entorno gráfico para lanzar los programas y para ver las colas y los progresos?

Ademas si como parece casi todos usáis Linux y comandos estandarizados podría servir para todos.

O sois como los antiguos usuarios de PC’s y su MS-DOS, que me decían que usar un ordenador sin comandos (el Mac) no tenía sentido (eso los más educados 😉). Y eso que ninguno éramos programadores, solo simples usuarios.

Share this post


Link to post
Share on other sites
Hace 5 horas, APB dijo:

Viendo que usas los comandos específicos para la consola (Terminal en MacOS) ¿no me dirás que, gastándose ese dineral en equipos, a nadie se le ha ocurrido crear un entorno gráfico para lanzar los programas y para ver las colas y los progresos?

Ademas si como parece casi todos usáis Linux y comandos estandarizados podría servir para todos.

O sois como los antiguos usuarios de PC’s y su MS-DOS, que me decían que usar un ordenador sin comandos (el Mac) no tenía sentido (eso los más educados 😉). Y eso que ninguno éramos programadores, solo simples usuarios.

A ver. Si hay ese tipo de entornos, pero en general son mucho menos eficientes, y potentes que unas sencillas líneas de comandos. Los mismo para un simple compilador de c (gcc). En MacOs (no Macosx) estaban el think c (luego Symantec)y el  Codewarrior que yo recuerde.

Imagínate una conexión de 2k/s contra un Cray en Suiza en el año 90.

o en plan doméstico....todos mis alumnos actualmente en un pc con un entorno gráfico en el frontend . Lo ahogarían. Algo se puede hacer con Xwindows, pero.....

Respecto de que pueda servir para todos. Ahora si se ha estandarizado Linux, pero antes no era así. Y luego los fabricantes tenían versiones propias con herramientas avanzadas para su sistema. Por ejemplo, por contar algo, Silicon Graphics con sus procesadores Intel Itanium, en su sistema operativo IRIX, tenía unas herramientas gráficas que eran una pasada. Eso si. La máquina que teníamos en mi Univetsidad, costó 80 millones de pesetas de principios del siglo XXI.

Lo que cuentas del ms-dos es otra historia y es que los “pceros” , tenían que justificar de alguna forma, la falta de un entorno gráfico. El Mac llevaba años por delante. Aunque tampoco es todo un invento de Jobs(también la gente de Xerox, etc). Hay una peli sobre eso muy buena, llamada “piratas del silicon Valley”. Para mi la mejor y la menos conocida sobre Jobs (aunque no sólo de el).

Saludos

 

Edited by jp

Share this post


Link to post
Share on other sites

Yo siempre me he preguntado, como se interconectan entre si estos super ordenadores con cientos de placas? conexiones especificas super rápidas? red ethernet? Se que por ejemplo las granjas que se creaban allá por 2007-2009 con PS3 se usaba el ethernet y en los nuevos Mac mini también se hace por ethernet.

Share this post


Link to post
Share on other sites
Hace 9 horas, Juan_Garcia dijo:

Yo siempre me he preguntado, como se interconectan entre si estos super ordenadores con cientos de placas? conexiones especificas super rápidas? red ethernet? Se que por ejemplo las granjas que se creaban allá por 2007-2009 con PS3 se usaba el ethernet y en los nuevos Mac mini también se hace por ethernet.

Redes especiales. Infiniband, Myrinet...etc....Una red ethernet generica puede no valer (según que tipo de aplicaciones). El tiempo de latencia de la red es muy alto.

En las GPUS, Nvidia tiene su propio bus, llamado NVLink...

 

Saludos

JP

Edited by jp

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.