Jump to content

Nuevos micros para los Mac Pro (6 núcleos)


Recommended Posts

Lo que si que tendrían que haber hecho,es ajustar un poco el precio,porque,¿quien se aventura a comprar uno ahora?.Deberían de incentivar la compra a fin de liquidar las existencias ante la posible renovación,porque como dije en otro hilo,miras la store,y el mac pro se percibe como en un impasse,que le falta algo al lado de los imac para decantarte por el y a ese precio.

Link to post
Share on other sites
  • Replies 364
  • Created
  • Last Reply

Top Posters In This Topic

Toda la razón, a mi me toca renovar y no voy a comprar hasta que no salgan los nuevos. Pero alguien que lo necesitara ya mismo, podría recibir de buen grado un ahorrito...

Link to post
Share on other sites
En las torres de dos cucarachas no hay más opción que meter las de clase Xeon. Es cuando te ofrecen torres de una sola donde la cosa se pone más dudosa. Es obvio que lo hacen para compartir diseño de placa, pero las últimas salieron bastante asquerosillas en todo el tema memoria.

Otia, por fin una explicación. Ahora la pregunta del millón ¿Porqué no hay interés en diseñar placas con 2 sockets para torres no destinadas a servers? No lo entiendo.

Con respecto a los zócalos de memoria placas haylas

Edited by mac_infer
Link to post
Share on other sites
... o bien no hace falta :)

Que Safari, por ejemplo, necesitara para él solo 3 GHz me parecería una barbaridad. Por tanto hacer que use varios núcleos creo que es innecesario.

Tú espérate a la próxima versión de Flash :D

O de Quicktime, que te paraliza todo el navegador mientras se carga en una página. Yo diría que no es mala idea el multiproceso del navegador. Chrome de Google es multihilo.

 

Cuando QT represente el % de m**** que Flash a la hora de navegar hablamos, Pepito Grillo.

 

Y paso del off-topic

Link to post
Share on other sites
Lo que si que tendrían que haber hecho,es ajustar un poco el precio,porque,¿quien se aventura a comprar uno ahora?.Deberían de incentivar la compra a fin de liquidar las existencias ante la posible renovación,...

Apple no suele bajar los precios de un producto, sino sustituirlo por otro.

De hecho no recuerdo ningún caso en el que Apple haya rebajado el precio de un producto sin ninguna renovación. Quizás haya alguno, pero no lo recuerdo.

Creo que estamos pidiendo demasiado :P

 

Y por supuesto, podemos ir olvidándonos de un Mac Pro menos potente (por ejemplo basado en un i7 como el del iMac), pues eso chocaría de lleno con la principal regla de Apple a la hora de diseñar sus gamas de productos: no solapar productos.

Link to post
Share on other sites

Si no os vale el ejemplo del navegador poned cualquier otro que os plazca.

 

Pero no siempre es necesario que un programa use múltiples procesadores.

Link to post
Share on other sites
Y por supuesto, podemos ir olvidándonos de un Mac Pro menos potente (por ejemplo basado en un i7 como el del iMac), pues eso chocaría de lleno con la principal regla de Apple a la hora de diseñar sus gamas de productos: no solapar productos.

A día de hoy se puede considerar un macpro xeon quadcore solapado con el imac i5/i7. Evidentemente lo que no tiene sentido es un macpro menos potente, aunque sino recuerdo mañl los benchmark de los 2,8 anteriores (básico) daban un buen repaso a los Nehalem a 2,26 (básico tb)

Link to post
Share on other sites
A día de hoy se puede considerar un macpro xeon quadcore solapado con el imac i5/i7.

Claro, y por eso Apple los va a renovar cuando le sea posible. Cabría preguntarse si la última actualización de los iMac estaba planificada para esa fecha o se adelantó por algún motivo, pues no es habitual que Apple deje varios meses la gama solapada, como bien apuntas.

 

Con un Mac Pro menos potente, me refiero también a más barato :D (obviamente) Por ejemplo, el citado Mac Pro i7

Link to post
Share on other sites

Hay que tener también en cuenta que la potencia de procesador no lo es todo. Si alguien necesita un MacPro no sólo es por el procesador que monta, así que no creo que a Apple le preocupe demasiado que durante un tiempo el iMac más alto esté a la par del MacPro más bajo en cuanto a potencia.

Link to post
Share on other sites

Y que opinan de un i5 o un i7 para edicion de video??, el tiempo de renderizado en el dual core es bastante lento,con FC7. Habrá que esperar los nuevos Mac Pro o bastarán estos nuevos Imac????

Link to post
Share on other sites
Apple no suele bajar los precios de un producto, sino sustituirlo por otro.

De hecho no recuerdo ningún caso en el que Apple haya rebajado el precio de un producto sin ninguna renovación. Quizás haya alguno, pero no lo recuerdo.

Creo que estamos pidiendo demasiado

 

Siempre hay una primera vez :rolleyes: .

Lo que si que lei en las quinielas que se daban por aqui dias antes de la actualizacion,es que algunos preveían una bajada de precios en algunos productos.

Por pedir que no quede (sera que ellos no piden poco por un producto,joé)

Link to post
Share on other sites
O de Quicktime, que te paraliza todo el navegador mientras se carga en una página. Yo diría que no es mala idea el multiproceso del navegador. Chrome de Google es multihilo.

Cuando QT represente el % de m**** que Flash a la hora de navegar hablamos, Pepito Grillo.

Y paso del off-topic

Todo lo que quieras, pero atento al matiz: Flash me ralentiza Safari, pero Quicktime ME LO PARALIZA mientras se inicia en una página web: no me deja ni conmutar a otras pestañas ni nada de nada, no importa el códec en uso o el tamaño del metraje a visualizar. Si he de descargar múltiples películas de, por ejemplo, un curso de 3D, te aseguro que será mucho mayor problema si los lee Quicktime que si son, por ejemplo, FLVs o MP4s cargados en un visor Flash. Si multienhebrar Safari significa solucionar eso, por mí de cabeza.

 

Aparte, en un mundo ideal, las aplicaciones serían, en términos de procesos, lo más granulares posibles como para equilibrar la carga entre todos los procesadores y la relación rendimiento/núcleos. Así que, si se puede, habrían de multienhebrarse hasta las judías verdes :P.

Edited by Juan
Link to post
Share on other sites
Ahora la pregunta del millón ¿Porqué no hay interés en diseñar placas con 2 sockets para torres no destinadas a servers? No lo entiendo.

Bueno, en realidad lo de "destinados a servers" es que se está convirtiendo más bien en una frase hecha para distinguir… no sé… equipos normales de equipos bestias :P. Hay varios fabricantes de PCs haciéndote torres con dos o cuatro Xeones para estaciones de trabajo, servidores y tal (antes, "estaciones de trabajo" tenían otra connotación: la de tener arquitecturas de placa y chips especiales y diferentes a los de los PCs normales. Hoy día esas cosas son escasas).

Link to post
Share on other sites
Si no os vale el ejemplo del navegador poned cualquier otro que os plazca.

 

Pero no siempre es necesario que un programa use múltiples procesadores.

 

Hoy en dia no es habitual. De hecho, son la escepcion y con optimizacion pobre los pocos programas multinucleo que existen.

 

Pero claro que el multihilo es aplicable a la inmensa mayoria de aplicaciones (que no procesos). Solo que o no saben, o es muy caro, o simple y llanamente... Hay que llegar al OS11.9.9, dando miguitas poco a poco para vender muchas copias y anunciar trepidantes avances version tras version. Que es lo que hacen... Todavia anuncian a bombo y platillo los famosos 64bits version tras version... Miguitas miguitas... Algun dia todo sera de 64 bits. Hasta entonces, a seguir comprando versiones. Y lo del multihilo acaba de empezar.... Nos vamos a "jartar" de multihilo. El proximo 10.7.1 vendra con grandes promesas de paralelizacion, y por supuesto, mas 64 bits todavia ( y van...). ¿Apostamos?

 

Se nos venden los multinucleo como la panacea, o Snow Leopard como la solucion, pero es solo el comienzo de algo que durara lustros en ser realidad. De momento es marketing y los primeros pasos.

 

¡Pero si conectas el iPhone con el iTunes abierto y se bloquea hasta que lo reconoce por dios! Un simple periferico por USB paraliza completamente un iTunes de ultima generacion sobre el mas moderno SO de Apple con el Grand Central Dispatch como abanderado, y hasta que no termina de reconocerlo, no se puede usar el programa porque tiene que esperar al dichoso periferico........ Si yo solo quiero cargar la bateria y ordenar mi musica!! Pues a esperar toca.

 

Y estas son tareas que se ven a simple vista, que hasta un novato en informatica puede ver y que evidentemente no han tratado de esconder (es demasiado caro rediseñar el codigo al multihilo DE VERDAD aunque asi nos lo vendan). Eso hasta un ciego lo ve. Si nos metemos con el codigo y de como funcionan las aplicaciones internamente, ya te puede dar la risa floja.

Edited by Internecio
Link to post
Share on other sites

Habláis de cosas que "paralizan" el ordenador, pero habría que ver si esas cosas ponen el procesador al 100%, y necesitaría otro de los núcleos para seguir adelante más airoso, o es por otras causas. Yo tengo instalado MenuMeters para medir el % de procesador en uso y no veo que cosas como enchufar el iPod Touch me lo aceleren :blink:

Link to post
Share on other sites
Habláis de cosas que "paralizan" el ordenador, pero habría que ver si esas cosas ponen el procesador al 100%, y necesitaría otro de los núcleos para seguir adelante más airoso, o es por otras causas. Yo tengo instalado MenuMeters para medir el % de procesador en uso y no veo que cosas como enchufar el iPod Touch me lo aceleren :blink:

 

Efectivamente, por eso mismo Jonno. Muchas veces es mas carga de disco duro que de CPU.

 

Pero lo que comentas de que conectar un iPod no acelera ni un core (solo faltaria que eso requiriese potencia de calculo a raudales...) es precisamente a lo que me refiero. Tal y como estan diseñados los programas, muchas veces nos toca esperar (la ruedita de colores girando) simplemente porque hemos conectado un iPod, y ya no podemos usar iTunes durante unos segundos. Porque va todo "en linea" y hasta que no termina una cosa no empieza otra, cuando son perfectamente paralelizables en la mayoria de casos.

 

Y repito, eso es lo que se ve a simple vista, lo que canta. Si viesemos como funcionan internamente los programas... Nos echabamos las manos a la cabeza, o al cuello del que nos vende los multicore como la panacea.

Link to post
Share on other sites
Porque va todo "en linea" y hasta que no termina una cosa no empieza otra, cuando son perfectamente paralelizables en la mayoria de casos.

Por lo que he leído en este mismo y en otros foros, paralelizar programas no es tarea fácil, y en bastantes casos es prácticamente imposible.

 

Precisamente lo que trata de hacer GCD es facilitar a los desarrolladores paralelizar sus programas cuando sea posible hacerlo... pero incluso con GCD es necesario rediseñar internamente todo el programa, y no hablamos de cosas como el tres en raya, sino de códigos que llevan muchos años de desarrollo y tienen muchas decenas de miles de líneas, y que no se pueden tirar a la basura y empezar de cero (que es prácticamente lo que habría que hacer para paralelizar un programa complejo).

Link to post
Share on other sites
Porque va todo "en linea" y hasta que no termina una cosa no empieza otra, cuando son perfectamente paralelizables en la mayoria de casos.

Por lo que he leído en este mismo y en otros foros, paralelizar programas no es tarea fácil, y en bastantes casos es prácticamente imposible.

 

Precisamente lo que trata de hacer GCD es facilitar a los desarrolladores paralelizar sus programas cuando sea posible hacerlo... pero incluso con GCD es necesario rediseñar internamente todo el programa, y no hablamos de cosas como el tres en raya, sino de códigos que llevan muchos años de desarrollo y tienen muchas decenas de miles de líneas, y que no se pueden tirar a la basura y empezar de cero (que es prácticamente lo que habría que hacer para paralelizar un programa complejo).

 

Supongo que no será tanto y que habrá código reutilizable. Entiendo que pasó lo mismo cuando se cambió de Mac OS "clásico" a Mac OS X, no?.

 

De todas formas leo, mucho por estos foros que Microsoft debería tirar todo el código de Windows y empezar de 0. No vamos a exigirle lo mismo a Adobe con Photoshop, a la propia Microsoft con Office, a Apple con Aperture, a Roxio con Toast, etc?. Si actualmente se tiende a aumentar el paralelismo, que se pongan las pilas, no quiero andar con un hardware desaprovechado por ahí.

Link to post
Share on other sites

Debe de ser complicado desde luego , porque es espectacular el largo desarrollo del hardware en la tecnología multinúcleo, y lo poquísimo que le ha seguido el software. Se da la paradoja , de que como a la medida de que va subiendo el número de nucleos van bajando la velocidad de reloj de cada uno de ellos (los i9 saldrán con 2,4 ghz :unsure: ) , y la mayoría de los programas hacen uso intensivo sólo del primero , resulta que al final, los programas van teniendo menos velocidad para ejecutarse en comparación con procesadores de hace años, cosa que saben bien los jugones (hay juegos que rinden más en dualcores que en quadcores)... Lo que me intriga en que incluso con software nuevo, como los juegos, siguen siendo ta "monocore".

Link to post
Share on other sites
Habláis de cosas que "paralizan" el ordenador, pero habría que ver si esas cosas ponen el procesador al 100%, y necesitaría otro de los núcleos para seguir adelante más airoso, o es por otras causas. Yo tengo instalado MenuMeters para medir el % de procesador en uso y no veo que cosas como enchufar el iPod Touch me lo aceleren :blink:

 

Efectivamente, por eso mismo Jonno. Muchas veces es mas carga de disco duro que de CPU.

 

Pero lo que comentas de que conectar un iPod no acelera ni un core (solo faltaria que eso requiriese potencia de calculo a raudales...) es precisamente a lo que me refiero. Tal y como estan diseñados los programas, muchas veces nos toca esperar (la ruedita de colores girando) simplemente porque hemos conectado un iPod, y ya no podemos usar iTunes durante unos segundos. Porque va todo "en linea" y hasta que no termina una cosa no empieza otra, cuando son perfectamente paralelizables en la mayoria de casos.

 

Si es carga de disco duro, usar 1 u 8 cores de procesador no va a cambiar nada. El cuello de botella es el acceso al disco, no la velocidad de proceso de los datos. Si el programa puede triturar mil datos por segundo pero el disco duro sólo puede grabar 100, da lo mismo que use 4 cores y triture cuatro mil, que el disco seguirá grabando 100 y el proceso no avanzará.

 

Si una tarea no hace trabajar a tope ni a un core, usar 1 u 8 cores de procesador no va a cambiar nada. Repartir un 10% de uso de procesador entre varios cores paradójicamente puede que incluso ralentice el trabajo.

 

Y por último, una cosa es que un programa ejecute un proceso detrás de otro, y otra distinta que los ejecute en cores diferentes. Hay mucho software que, usando un solo core, puede ejecutar varias tareas simultaneamente. O aunque las ejecute una detrás de otra esto es invisible para el usuario, que puede seguir usando el software sin esperar a que una tarea termine. Y esto es independiente de que haya 1 u 8 cores.

 

Por otro lado es que parece que no se entiende lo que digo (no hablemos de casos concretos porque os liáis la manta a la cabeza poniendo pegas a cada ejemplo :D): hay y habrá programas que no usarán nunca ni un pequeño % del procesador, y no necesitan programación en paralelo ni pepinillos en vinagre para funcionar correctamente :)

Link to post
Share on other sites
Supongo que no será tanto y que habrá código reutilizable. Entiendo que pasó lo mismo cuando se cambió de Mac OS "clásico" a Mac OS X, no

No es lo mismo.

Entre otras cosas porque Apple incluyó en Mac OS X gran parte de las API de Mac OS 9 mediante Carbon (que aún se sigue utilizando hoy en día en gran cantidad de aplicaciones grandes).

Link to post
Share on other sites
De todas formas leo, mucho por estos foros que Microsoft debería tirar todo el código de Windows y empezar de 0. No vamos a exigirle lo mismo a Adobe con Photoshop, a la propia Microsoft con Office, a Apple con Aperture, a Roxio con Toast, etc?. Si actualmente se tiende a aumentar el paralelismo, que se pongan las pilas, no quiero andar con un hardware desaprovechado por ahí.

 

De hecho, sí se hace, y desde hace mucho tiempo :)

 

por ejemplo uno de los problemas que tiene Adobe con su suite es que arrastra lastres del pasado difíciles de subsanar si no empieza desde cero, como la limitación de 3 GB asignables a Photoshop, cuando cualquier profesional de la imagen hoy en día puede permitirse tener 6 ó 12 GB como poco.

Link to post
Share on other sites

He dicho que hay casos en el que la carga la lleva el disco duro, no que cada programa que no usa ni un core a tope sea por saturacion de disco. Muchas veces no se por que, ni el disco duro esta leyendo continuamente, ni ningun core esta al 100%, y en cambio el programa esta cargando aparentemente sin hacer nada (unos segundos). No se en esos casos que es lo que estara haciendo, ni que provoca la espera.

 

La saturacion de disco es otro de los problemas basicos de cualquier ordenador. Su lentitud frente al resto del sistema le deja vendido en muchos casos, y el procesador debe esperar. Donde estan todos los datos, es la parte mas lenta. Claro que si hablamos de precios, es lo mas logico.

 

Dado que la paralelizacion esta en pañales y tardara años en que todo el mundo reprograme todos sus codigos correctamente, nos venden la moto de que, vale, no hay mucho programa que se beneficie del multihilo, pero con muchos cores puedes hacer muchas cosas a la vez sin que se resienta... JA! El disco duro es un cuello de botella tremendo.

 

Sin duda subir de GHz es complicado, y la evolucion de rendimiento es muy lenta ahora mismo, pero multiplicar cores sirve de mas bien poco para tareas generales (y mas de dos, casi un despilfarro).

Link to post
Share on other sites
Muchas veces no se por que, ni el disco duro esta leyendo continuamente, ni ningun core esta al 100%, y en cambio el programa esta cargando aparentemente sin hacer nada (unos segundos). No se en esos casos que es lo que estara haciendo, ni que provoca la espera.

 

Y yo lo que digo es que esto no lo arregla meter sopotocientos cores ni la paralelización, porque para una gran cantidad de programas no es necesaria e incluso puede ser contraproducente :)

Link to post
Share on other sites
por ejemplo uno de los problemas que tiene Adobe con su suite es que arrastra lastres del pasado difíciles de subsanar si no empieza desde cero, como la limitación de 3 GB asignables a Photoshop, cuando cualquier profesional de la imagen hoy en día puede permitirse tener 6 ó 12 GB como poco.

Hay que tener en cuenta que en Windows ya existe Photoshop 64 desde CS4. Lo hubiéramos tenido para Leopard de no ser por la cancelación de Carbon64. Si no falla nada, se espera que lo tengamos, vía Cocoa, en Abril del año que viene.

 

Como curiosidad en estos temas de capacidad para desarrollar nuevas versiones: After Effects y Premiere serán sólo de 64 bits. Adobe ha decidido que no tiene tantos recursos como para seguir avanzándolos a la vez en 32 y 64, y que la clientela estará por la labor. Sin embargo, Photoshop sí será Binario Universal Intergaláctico.

 

 

 

Sobre el tema del cuello de botella de los discos duros y tal: lo que nunca he entendido es por qué se ralentiza tanto todo cuando uno está haciendo copias gordas desde el disco de arranque a otras unidades. ¿Es porque se pelea con la Memoria Virtual? Lo digo porque tengo 9 GB de RAM, y uno esperaría que otras tareas no se resintieran tanto.

Link to post
Share on other sites
Guest
This topic is now closed to further replies.
×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.