Jump to content

¿Qué procesador elijo en mi nuevo Mac?


FDR-OSX
 Share

Recommended Posts

El regreso del foro me viene bien para haceros una consulta, resulta que quiero comprar un nuevo iMac, quizá lo encargue el Black Friday, pero tengo duras sobre qué procesador elegir. Voy a pedir un modelo de 21,5 pulgadas con pantalla 4K, eso lo tengo claro, también tengo bastante claro que lo pediré con 16 gigas de RAM porque si bien antes mejoraba yo mismo la RAM comprándola a posteriori, ahora hay que llevarlo a un servicio oficial y mejor que venga incluida. En cuanto a memoria general, había pensado en un Fusion Drive de 1 TB.

Supongo que para aconsejarme necesitáis saber qué voy a hacer con el equipo, la verdad es que serán tareas no muy pesadas, doy por hecho que cualquier variante me irá mucho más rápido que el Core 2 Duo que tengo ahora en el viejo iMac, pero es que me gusta que los ordenadores me duren y que dentro de unos años siga siendo eficaz, pueda actualizarse, siga teniendo agilidad, etc. Lo más pesado que hago es manejar fotos, a veces ver plataformas de streaming, o procesar algún vídeo, aparte de cosas de oficmática, navegación web, gestión de archivos en la nube y cosas de ese tipo.

Supongo que con un i5 tendré más que suficiente, pero ¿qué variante os parece la más adecuada para un uso "suave", pero que se me actualice más tiempo y sea eficaz largo tiempo?, mi duda principal está entre el de 3,0 y el de 3,5 Ghz, los cuales, igualando otros factores, no se diferencian demasiado en el precio.

El que tengo ahora me ha salido muy bueno, tiene 12 años y funciona bien, aunque con Mac OS Lion no actualizable a más. Se lo voy a regalar a mi sobrina, quien espero que lo disfrute una temporada más antes de que caiga en el olvido y, de paso, ella ya se está acostumbrando a Mac OS y espero que siga con ese sistema cuando crezca.

Gracias anticipadas por cualquier consejo.

  • Me gusta 1
Link to comment
Share on other sites

Hola , en agosto se murió la placa de mi Mac mini ( 2011 con i7 ) y Apple ya no disponía  de repuestos para este modelo ( ¿obsolescencia programada? )

El nuevo Mac mini ( 2018 ) estaba todavía con fecha de salida y características desconocidas ( ... solo había las clásicas especulaciones periodísticas )

Principalmente hago edición fotografica ( nada de videos ) y la opción mas clara , dentro de mi budget , fue  el iMac de 21,5

 

1424971880_Capturadepantalla2018-11-12alas9_36_28.png.0b6e4d0899452555570264d1a05e1805.png

Mi consejo es un SSD de 256 GB y almacenaje exterior!

Personalmente tengo : Lightroom en un SSD externo ( Thunderbolt 2 + adaptador aThunderbolt 3 )

                                         T.Machine en un HD externo ( FireWire + adaptador a Thunderbolt 3 )

                                         iTunes en el SSD externo del " defunto " Mac mini

Los dos adaptadores me salieron gratis ( durante el pedido telefonico el operador de Apple me lo comunicó inesperadamente )

No tengo ningún " cuello de botella " y la maquina se desenvuelve sobradamente!

La unica pega es el brillo de la pantalla ( no vale para edición fotografica ) que he solucionado con un calibrado

 

Un saludo

  • Me gusta 1
  • Gracias 1
Link to comment
Share on other sites

Es una buena idea ponerle el mínimo de SSD con almacenamiento exterior, pero no sé hasta qué punto va mejor que un Fusion Drive, ya que aunque alguna aplicación quede fuera de la parte de memoria sólida, se supone que el sistema operativo sí que queda en esa memoria más rápida.

Sopesaré precios de cada variante, quizá dándole más importancia al SSD que a otros factores como puden ser el procesador.

Link to comment
Share on other sites

Es lo que estoy viendo y constatando por las opiniones generales, por una parte la RAM, que siempre conviene que sea generosa, máxime en estos equipos que deben pasar por el taller para poderla mejorar, y por otra parte la memoria SSD, pues los discos duros son ya algo sobrepasado y con un Fusion Drive parece que no es suficiente para lograr la rapidez deseable. El procesador creo que con el i5 de 3 Ghz del modelo intermedio del 21,5" me bastará, aunque según cómo dejen los precios el Black Friday decidiría si opto por otro, pero creo que con ese ya voy bien.

Edited by FDR-OSX
Link to comment
Share on other sites

En mi opinión, depende de cuánto quieras alargarle la vida útil. Míralo de este modo: dentro de unos meses, una vez pasado el shock de lo que te ha costado el iMac, el coste de las ampliaciones que hayas elegido te parecerá peccata minuta.

Francamente, yo lo subiría a 16 GB de RAM y le pondría el Core i7. El i7 soporta hyperthreading, que en muchas aplicaciones (especialmente de cálculo –por ejemplo codificación de vídeo–) supone en la práctica duplicar los núcleos; además es más rápido y tiene más caché. En cuanto al almacenamiento, no sé qué tal irán los Fusion Drive ahora que creo que han reducido la parte SSD a 28 GB. Yo tengo dos iMacs (casa y curro) con Fusion Drive de cuando llevaban SSD de 128 GB y la verdad es que funcionan estupendamente. Evidentemente te va a dar más rendimiento un SSD puro, pero la pérdida de capacidad (salvo que pagues un riñón) es algo a tener en cuenta. Claro, mucha gente la compensa complementando con un disco externo, pero ningún disco externo sea del tipo que sea va a dar las mismas prestaciones por USB que uno interno. Además, personalmente me toca las narices comprar un equipo todo-en-uno para luego tener conectado permanentemente un disco externo (yo hago los backups de Time Machine en un NAS). Si te inclinas por SSD piensa bien si te arreglarás con 256 GB… otra opción es que lo cojas con Fusion Drive (o SSD 256 GB) pensando en cambiarle el disco en el futuro (es posible hacerlo, pero muy recomendable en servicio oficial).

EDITO: Veo que resulta más económico partir del modelo de 3,4 GHz si lo vas a coger con SSD, ya que las opciones de ampliación de almacenamiento son más baratas que si partes del modelo de 3 GHz. Ejemplo: el modelo de 3 GHz, con 16 GB RAM, i7 y SSD 256 GB sale por 2.345,59€, mientras que si partes del modelo de 3,4 GHz configurado del mismo modo sale por 2.305,59€, 40€ menos. 😄 

Edited by Dæmon
Link to comment
Share on other sites

Los Fusion Drive de 2 teras tienen más espacio en la unidad SSD, pero no están disponibles en los modelos de 21 pulgadas, en ellos debe ser la versión de 1 tera con poca memoria SSD, que digo yo que bien podrían aumetarla un poco sin que apenas les costara más, aunque fuera a costa de reducir el disco duro tradicional, pero quizá les interese incentivar la compra de modelos sólo con SSD y por eso no lo amplían.

No me gustaría pasarme de los 2000 euros, a ver cómo lo combino todo para que me quede un iMac bien configurado sin gastar demasiado, pues por mucho que hacerlo no me vaya a arruinar, pienso que no necesito tanto ordenador. A ver qué ofertas hacen, porque aunque fueran en formato vale de compra me podrian servir para modernizar el disco de Time Machine y una impresora nueva; si gasto más, pero me llevo un buen conjunto, tampoco me importa mucho, pero sin exagerar.

Link to comment
Share on other sites

Hola FDR-OSX

Hasta la salida de los Mac con TB3, el SSD interno era fundamental. El FD yo no lo pondría. No va mal. Pero no es comparable con los SSD internos que monta Apple, que son de lo mejor, tanto si van soldados como si no. Como te digo ahora, puedes poner tambien SSD externos muy rápidos que van con TB3. Por ejemplo mira el Samsung X5 y similares....

Luego lo de las CPUs como comenta Dæmon es importante. Eso si, el hyoerthreading ni por equivocacion te va a dar un nucleo real. En las pruebas que yo hice en su momento, era de un 20 a un 30% de un nucleo real, aunque mucho software internamente es incapaz de distinguir entre un nucleo real y uno que no lo es.

Con ese dinero, yo me iría a 16Gb de RAM un i5 (o i7) esto ya depende de ti, y un SSD  de 512GB o FD, si no te da para el SSD. La máquina desde la que te escribo (desde casa) ahora es un iMac de 2013 comprado en 2014 con 16 GB de RAM, un i5, 2.7Ghz (no recuerdo de que generación) de 4 nucleos y 1 FD de 1TB (de los antiguos con 128Gb de SSD interno).

Va bien. El FD es razonable, pero no me daba para el SSD de 1Tb (ni mas pequeño). En lo único que se queda corto el disco es en el uso de máquinas virtuales (corto, claro con soft que yo gasto). En mi caso, el SSD externo que puedo usar es USB3 (5Gbits) o TB (10 Gbits), pero este último no sirve de nada porque los dispositivos TB/SATA sólo soportan 6Gbits como mucho.

Saludos

JP

Edited by jp
  • Me gusta 1
Link to comment
Share on other sites

Hace 1 hora, jp dijo:

Luego lo de las CPUs como comenta Dæmon es importante. Eso si, el hyoerthreading ni por equivocacion te va a dar un nucleo real. En las pruebas que yo hice en su momento, era de un 20 a un 30% de un nucleo real, aunque mucho software internamente es incapaz de distinguir entre un nucleo real y uno que no lo es.

Sólo quiero comentar al respecto que eso depende mucho del tipo de procesos. Mi experiencia es que con procesos de cálculo, incluyendo codificadores de vídeo que tiran de las instrucciones SSE, etc., los núcleos virtuales dan un rendimiento casi como los reales (esto también depende de si usan estructuras de datos enormes o por el contrario más pequeñas que caben en el caché L2). En realidad, que esto sea así es indicativo de las limitaciones de las instrucciones CISC (por mucho que luego se descompongan en micro instrucciones RISC) de las CPUs de Intel. Son lentas en descodificarse y lentas en ejecutarse, por lo que al llenar las pipelines de los núcleos virtuales, mientras uno descodifica unas instrucciones otro ejecuta otras (más o menos, estoy simplificando mucho). Si la CPU estuviese bien optimizada no tendría sentido la existencia de núcleos virtuales.

También influye mucho cómo esté diseñado el planificador de procesos del sistema operativo, de modo que sea consciente de que hay dos núcleos virtuales (lógicos) por cada núcleo físico. Supongo que el planificador de macOS estará bien hecho (no conozco los detalles).

Y hablando de esto: las CPUs de Intel (IA-32, x86-64, y ya no digamos las x86 de antaño) son una mierda pinchada en un palo. Sus ingenieros han sido ingeniosos (digresión: en español “ingeniero” viene de “ingenio”, mientras que en inglés “engineer” viene de “engine”) sacando casi todo lo posible de esa arquitectura con trucos como el hyperthreading. Pero como se puede ver ya no dan mucho más de sí: primero se toparon con los problemas térmicos y de consumo en general (¿os acordáis del Pentium 4?), y luego optaron por ir a diseños algo más simples que les permitiera reducir consumo, usar escalas más pequeñas de fabricación, y meter más núcleos en el mismo espacio (o menos espacio). Francamente, estoy deseando que se den la Gran Torta y pasen a la Historia. Se lo merecen (desde que sacaron la p. mierda del 8086 se la tengo jurada).

  • Me gusta 1
Link to comment
Share on other sites

Hace 1 hora, Dæmon dijo:

Sólo quiero comentar al respecto que eso depende mucho del tipo de procesos. Mi experiencia es que con procesos de cálculo, incluyendo codificadores de vídeo que tiran de las instrucciones SSE, etc., los núcleos virtuales dan un rendimiento casi como los reales (esto también depende de si usan estructuras de datos enormes o por el contrario más pequeñas que caben en el caché L2). En realidad, que esto sea así es indicativo de las limitaciones de las instrucciones CISC (por mucho que luego se descompongan en micro instrucciones RISC) de las CPUs de Intel. Son lentas en descodificarse y lentas en ejecutarse, por lo que al llenar las pipelines de los núcleos virtuales, mientras uno descodifica unas instrucciones otro ejecuta otras (más o menos, estoy simplificando mucho). Si la CPU estuviese bien optimizada no tendría sentido la existencia de núcleos virtuales.

También influye mucho cómo esté diseñado el planificador de procesos del sistema operativo, de modo que sea consciente de que hay dos núcleos virtuales (lógicos) por cada núcleo físico. Supongo que el planificador de macOS estará bien hecho (no conozco los detalles).

Y hablando de esto: las CPUs de Intel (IA-32, x86-64, y ya no digamos las x86 de antaño) son una mierda pinchada en un palo. Sus ingenieros han sido ingeniosos (digresión: en español “ingeniero” viene de “ingenio”, mientras que en inglés “engineer” viene de “engine”) sacando casi todo lo posible de esa arquitectura con trucos como el hyperthreading. Pero como se puede ver ya no dan mucho más de sí: primero se toparon con los problemas térmicos y de consumo en general (¿os acordáis del Pentium 4?), y luego optaron por ir a diseños algo más simples que les permitiera reducir consumo, usar escalas más pequeñas de fabricación, y meter más núcleos en el mismo espacio (o menos espacio). Francamente, estoy deseando que se den la Gran Torta y pasen a la Historia. Se lo merecen (desde que sacaron la p. mierda del 8086 se la tengo jurada).

Bueno:

Efectivamente tienes razón en lo que dices, que depende del tipo de proceso que estés ejecutando. Lo que ocurre es que al menos por lo que yo conozco de la documentación oficial de la propia INTEL, ellos hablan de un 30%. Yo en los benchmarks sintéticos que he hecho en algunas CPU's y en pruebas sobre programas multithread/multicore (en OpenMP) de algoritmos mas o menos standard (y otros no tan standard) muy paralelizables (sistemas de ecuaciones lineales, producto de matrices, etc) me he quedado en el 20%, trabajando con benchmarks standards usando paquetes como BLAS y LAPACK.

Obviamente es posible que en el caso de uso de SSE y video (mucho computo y poco acceso a memoria en general, y por tanto mucha escritura en registros) consigas eso. Pero son casos muy extremos, o al menos esa es mi experiencia. Hace poco he hecho alguna prueba de estas en mi MacBook Air de 2013 de la gama U (dual core con hyperthreading)

Para un usuario "normal", de verdad que yo no he visto sacar mas de un 20 o 30%.

Respecto del caso del planificador en sí... Yo tampoco tengo muy claro como funciona en MacOSX, pero si en otros sistemas como LINUX. Y lo que al final acabamos haciendo para sacar resultados de los programas paralelos, es desconectar el Hyperthreading, mediante la BIOS de la máquina, para no distorsionar los resultados. Es que no conozco ningun software (no digo que no lo haya) que sea tan sofisticado como para determinar en que parte y con que criterios ha de trabajar para coger un nucleo real o uno HT.

En cualquier caso como te digo, son valores medios...que pueden ser mas interesantes que los casos extremos en un sentido, o en otro.

Respecto de las CPUs de INTEL, estoy totalmente de acuerdo. La suerte fue que les cayeran sistemas operativos de MS, como el MSDOS, y el WIndows. En otro caso serían un cero a la izquierda. Y se habrían visto facilmente superados por otros procesadores de otras marcas...Desde Alpha, Cray, pasando por HP, Morotola (PowerPC) hasta la propia INTEL con otras arquitecturas como la Itanium, que era una pasada. Pero que la castaña del x86, se llevó por delante....

En definitiva, que yo no le daría tanta importancia al tema del HT. Otra historía sería si fueran nucleos reales.

Saludos

JP

Edited by jp
  • Me gusta 1
Link to comment
Share on other sites

Yo tampoco le doy mucha importancia al hyperthreading. Tienes razón en que con un uso “normal” no vas a sacar más de un 20 o 30% de rendimiento extra.

En cuanto a lo que comentas del planificador, supongo que el algoritmo básico puede ser muy sencillo. Supongamos una CPU, dos núcleos físicos, cada uno desdoblado en dos núcleos lógicos con el hyperthreading. Supongamos que tienes dos procesos solicitando CPU; lo lógico es asignar a cada uno un núcleo lógico de diferentes núcleos físicos, en vez de usar sendos núcleos lógicos del mismo núcleo físico. Claro, estoy suponiendo un uso “normal” en el que en cada instante hay muy pocos procesos demandando CPU, que es lo opuesto al uso que harías tú (o yo, cuando necesito machacar números). Lo que quiero decir es que un planificador de procesos debe saber cómo están estructurados los núcleos disponibles, y no verlos todos como iguales.

Y ciertamente, recuerdo todas aquellas CPUs que terminaron en el olvido mientras que las castañas x86 de Intel acababan dominando casi todo. Muy triste. Pero a todo cerdo le llega su San Martín… 🤞

 

 

  • Me gusta 1
Link to comment
Share on other sites

Creo que es mejor conformarme con un i5 pero, ya que en el 21,5" no puede cambiarle yo la RAM, seguro que será de 16 gigas y, por lo que voy informándome, también es práctiamente seguro que lo pediré con una unidad SSD, creo que es la forma de tener un equipo bastante equilibrado y al día, porque trabajos muy pesados tampoco va a hacer, y si los hago, no será en absoluto muy a menudo.

Link to comment
Share on other sites

Hace 15 horas, Dæmon dijo:

Yo tampoco le doy mucha importancia al hyperthreading. Tienes razón en que con un uso “normal” no vas a sacar más de un 20 o 30% de rendimiento extra.

En cuanto a lo que comentas del planificador, supongo que el algoritmo básico puede ser muy sencillo. Supongamos una CPU, dos núcleos físicos, cada uno desdoblado en dos núcleos lógicos con el hyperthreading. Supongamos que tienes dos procesos solicitando CPU; lo lógico es asignar a cada uno un núcleo lógico de diferentes núcleos físicos, en vez de usar sendos núcleos lógicos del mismo núcleo físico. Claro, estoy suponiendo un uso “normal” en el que en cada instante hay muy pocos procesos demandando CPU, que es lo opuesto al uso que harías tú (o yo, cuando necesito machacar números). Lo que quiero decir es que un planificador de procesos debe saber cómo están estructurados los núcleos disponibles, y no verlos todos como iguales.

Y ciertamente, recuerdo todas aquellas CPUs que terminaron en el olvido mientras que las castañas x86 de Intel acababan dominando casi todo. Muy triste. Pero a todo cerdo le llega su San Martín… 🤞

 

 

Bueno. En el tema del planificador es que la cosa es aún más “liosa” porque fíjate que no estas planificando a nivel de proceso (lo cual sería posible) sino a nivel de thread (hilo) con lo cual el tema es más complicando porque para un solo proceso, puedes elegir las formas de ejecución de sus hilos (múltiples). Por ejemplo, en función de la carga que generen las iteracciones de un simple bucle(cada una o grupo de ellas) es uno o varios hilos y de forma estática o dinámica). Por tanto no tengo muy claro lo que me comentas a nivel de varios procesos...cada uno con sus hilos. Pero ya te digo, que aquí, el hyperthreading pinta poco, porque que yo sepa(tengo que preguntárselo a algún compa) no se si se puede trabajar a ese nivel.

Mi conclusión sería algo así como núcleos reales, de acuerdo. Los HT, pos bueno, si me los dan....pero a mi   e parecen una tomadura de pelo...y ya no se cuantas van...de INTEL.

Saludos

 

JP

p.d. Por si a alguien le interesa aquí hay un pequeño tutorial del tema de los hilos en función del tipo de S.O

https://www.tutorialspoint.com/operating_system/os_multi_threading.htm

  • Me gusta 1
Link to comment
Share on other sites

Hace 12 horas, FDR-OSX dijo:

Creo que es mejor conformarme con un i5 pero, ya que en el 21,5" no puede cambiarle yo la RAM, seguro que será de 16 gigas y, por lo que voy informándome, también es práctiamente seguro que lo pediré con una unidad SSD, creo que es la forma de tener un equipo bastante equilibrado y al día, porque trabajos muy pesados tampoco va a hacer, y si los hago, no será en absoluto muy a menudo.

A mí me parece la mejor configuración posible. 16GB de RAM y el SSD de 512GB (que los de Apple son rapidísimos) se van a notar más que la mejora del procesador.

 

Respecto a lo del hyperthreading, casi podríamos hacer otro hilo, porque a mí también me interesa el tema, aunque estoy menos informado 😅

La cosa es que el año pasado estuve haciendo un programilla en Python en teoría totalmente paralelizable: básicamente ejecutaba una simulación estocástica a partir de un grid de dos parámetros (supongamos a y b, cada uno pudiendo tomar ~10000 valores entre 0 y 1). Al principio del programa repartía el total de parejas de parámetros entre los hilos disponibles para que cada hilo fuese calculando los resultados en paralelo y la diferencia entre usar 1 hilo (por defecto, sin paralelizar) y 4 hilos (4 núcleos físicos en mi procesador) era casi perfecta (~4 veces más rápido) y la diferencia entre usar 4 y 8 hilos (los disponibles con hyperthreading) era... ninguna. Ni siquiera era siempre más rápida la versión de 8 hilos.

También es cierto que de la forma que configuré el módulo de paralelización de Python lo que hacía era lanzar 4 intérpretes de Python simultáneamente y luego juntar los resultados (de hecho podías crear tantos hilos como quisieras), y probablemente haya una forma más eficiente de hacerlo... pero vamos, en ese caso concreto me sorprendió porque no había ninguna diferencia entre usar o no hyperthreading... y por lo que estuve viendo en aplicaciones de este tipo de cálculo numérico hasta había quien recomendaba desactivar el hyperthreading, así que yo desde entonces también valoro más bien poco lo del hyperthreading, nada que ver con un núcleo real. Si en alguna otra aplicación es capaz de mejorar significativamente el rendimiento ahí ya no lo sé, pero a mí me sirvió de poco ¯\_(ツ)_/¯ 

Y perdón por el offtopic :macu:

Edited by Andropov
Link to comment
Share on other sites

Hace 15 horas, Andropov dijo:

A mí me parece la mejor configuración posible. 16GB de RAM y el SSD de 512GB (que los de Apple son rapidísimos) se van a notar más que la mejora del procesador.

 

Respecto a lo del hyperthreading, casi podríamos hacer otro hilo, porque a mí también me interesa el tema, aunque estoy menos informado 😅

La cosa es que el año pasado estuve haciendo un programilla en Python en teoría totalmente paralelizable: básicamente ejecutaba una simulación estocástica a partir de un grid de dos parámetros (supongamos a y b, cada uno pudiendo tomar ~10000 valores entre 0 y 1). Al principio del programa repartía el total de parejas de parámetros entre los hilos disponibles para que cada hilo fuese calculando los resultados en paralelo y la diferencia entre usar 1 hilo (por defecto, sin paralelizar) y 4 hilos (4 núcleos físicos en mi procesador) era casi perfecta (~4 veces más rápido) y la diferencia entre usar 4 y 8 hilos (los disponibles con hyperthreading) era... ninguna. Ni siquiera era siempre más rápida la versión de 8 hilos.

También es cierto que de la forma que configuré el módulo de paralelización de Python lo que hacía era lanzar 4 intérpretes de Python simultáneamente y luego juntar los resultados (de hecho podías crear tantos hilos como quisieras), y probablemente haya una forma más eficiente de hacerlo... pero vamos, en ese caso concreto me sorprendió porque no había ninguna diferencia entre usar o no hyperthreading... y por lo que estuve viendo en aplicaciones de este tipo de cálculo numérico hasta había quien recomendaba desactivar el hyperthreading, así que yo desde entonces también valoro más bien poco lo del hyperthreading, nada que ver con un núcleo real. Si en alguna otra aplicación es capaz de mejorar significativamente el rendimiento ahí ya no lo sé, pero a mí me sirvió de poco ¯\_(ツ)_/¯ 

Y perdón por el offtopic :macu:

Bueno:

Respecto del tema del procesador/máquina, si lo que quieres es un Mini, pues yo me iría a 16 Gb de RAM y 512 de SSD, también. Y ya puestos el procesador mas adecuado sería un i5 con 6 nucleos. En realidad lo de i3, i5 y i7 y ahora i9...es un tema mas comercial que otra cosa. Hay que ver que hay detrás de la iX...Por ejemplo, los i3 que monta Apple ahora, no tienen nada que ver con los antiguos (que nunca llego a montar), en el Mac mini, me refiero, claro...

Precisamente hay alguien que tiene un podcast bastante majo, llamado (Dekkar), que entre otras cosas es un experto en seguridad y mackero, al que sigo, que ha comentado de los problemas para ampliar por su cuenta un Mini. Merecen la pena los podcast de este hombre....Al final, ha devuelto el Min icon 8Gb, y se ha gasado la pasta en un mac mini con  16 Gb de Apple.

Los SSD de Apple son una pasada. Lo bueno, es que por fin, con TB3, puedes montarlos similares, pero externos. Por ejemplo, el Samsung X5. Así que tu decides....Antes era casi obligatorio montar un SSD de estos NVme PCie que monta Apple. Con el TB3, y los externos nuevos, ya no tanto....

 

Paralelismo/hyperthreading/ Offtopic.... (lo siento)😂. Pues si, el hyperthreading (HT) es flojo, flojo...De todas formas, algunas curiosidades/dudas que te quería comentar....

1) Una duda ¿Cómo sabes que los primeros 4 nucleos que has cogido en tu programa son reales y no HT? Es que yo no se como distinguir/hacer eso en MacOSX (ni en LINUX). Hay algún comando/soft que te permita ver eso?....Es que no tengo ni idea de como hacerlo...Y como he comentado (y he visto que tu también) en nuestras máquinas en la Uni al final, los nuclesos HT los desconectamos para hacer pruebas. Todo lo más es sacar tiempos, o ver el grado de ocupación (mayor del 100%) de tu programa.

2) No sabia que el Python (lo conozco poco) permitía trabajar con paralelismo, mas allá de que lleva un módulo multiproceso y poco mas. Es una de las cosas que tengo pendientes....Pero ya no doy para mas 😞. Con la crísis, nos toca dar muchas mas clases que antes. Y la edad 😔, pues no perdona....

3) El tema de que con 8 cores te vaya peor, podría ser por varias razones....

 - Lo que has comentado de los cores HT desde el 5 al 8. Los HT van a tener menos rendimiento. Eso está claro.

- Hay otro segundo problema intrínseco a este tipo de arquitectura. Y es que en las maquinas del tipo del  paradigma de los "multiprocesadores" (los Multicores se pueden asemejar a esto), hay un conflicto bastante dícil de resolver con el tema de los accesos a memoria. Y es que al tener todos una memoría común, eso es un "cuello de botella" bastante grande. De hecho, hace años que los multiprocesadores pasaron a mejor vida a nivel comercial (había marcas específicas), porque el tema de montar esquemas de memorias eficientes, era algo mas que caro. Hace años (ya no me acuerdo cuantos) escribí un pequeño artículo en Macuarium sobre este tema de las arquitecturas...Debe andar por ahí. Hoy día las cosas han cambiado bastante. Pero el artículo tiene muchas cosas que siguen (desde mi punto de vista y modestia aparte,) teniendo validez. En este tipo de máquinas, como mucho se llegaron a montar 8 o 16 (raramente) procesadores. Y los precios eran de echarse para atras. Hoy dia se montan como mucho bipros (2) o ráramente 4.

Por último, una prueba que yo haría para ver el tema de rendimientos, es que no pases de 4 a 8, sino de 4 a 5, o de 4 a 6 como mucho, para ver si el problema son los HT, o el tema de los accesos a memoria.

Si quereis que abramos algún tema especial sobre esto, por mi de acuerdo. Estoy dispuesto a echar una mano....y escribir hasta donde se...Hace años ya escribí aquí en macuarium algún articulo sobre este tema. Espero que el foro siga así (y mi agradecimiento a los administradores). Y no acabe estropeándose como hace un año y pico. Hubo gente que acabamos muy quemados y algunos llegaron a abandonar el foro (ojo, que no es mi caso). Yo ya soy mayorcito para defenderme yo solito. Pero fue una pena .

Saludos

JP

P.D. Edito para comentar una cosa que se me ha pasado. Es que tú puedes tener todos los hilos (software) que quieras, independientemente de la cantidad de cores físicos (HT o no) que tengas. Lo que ocurre en este caso, es que  varios hilos, se ejecutan sobre el mismo core físico.

 

 

 

Edited by jp
  • Me gusta 1
Link to comment
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

 Share

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.