Jump to content
MacAlvy

Windows tendrá un kernel más simple.

Recommended Posts

Yo no entiendo mucho de kernels pero lo que me transmite microsoft es lo siguiente: Ellos tienen una mina llamada "monopolio windows" y que simplemente están explotándola sacándole el máximo partido con el mínimo esfuerzo. Ellos no van a arriesgarse a sacar un Os nuevo como ha hecho Apple 2 veces en su historia ... van a seguir dandole capas de pintura hasta que la mina se gaste... sin innovar, sin arriesgar y sin aportar nada a la infórmatica.

Si soy un troll makero pero es que vengo de pelearme con el windows de mi hermana...

Share this post


Link to post
Share on other sites
Lo mas interesante, es que hace este tema en Actualidad Mac? hehe

 

Hace tiempo que esto es "Actualidad informática", además, ¿acaso no hablamos de Mac, Línux, BSD, Next y Windows en este tema?, cuesta mucho separar unas cosas de otras, sobretodo cuando es a nivel tan teórico como lo que estamos comentando.

 

En cuanto a un futuro Windows, creo imprescindible que dejen la presunta compatibilidad hacia atrás a sistemas de virtualización, algo así como "Classic" o como Rosetta, si no empiezan con algo bastante nuevo, no en aspecto, sino en núcleo del sistema y en todo lo que tiene encima, Vista será sólo un primer para pasar un super-Vista que necesitará supercomputadores de universidades para poder correr la versión Home, es más, creo que esa actualización no debería ser para el sustituto de Vista, sino para su primer Service Pack, pues de lo contrario, Vista va a tener peor recuerdo en la mente de los usuarios que el inefable Millennium.

Edited by MacAlvy

Share this post


Link to post
Share on other sites

Mmm... ¿dos veces en su historia? En todo caso una, y comprado fuera, y porque no había más narices.

 

Bueno, si contamos aquel Unix (A/UX) o lo que tenían los Apple II, pues vale, pero...

 

 

 

 

Realmente, las cosas que un Microsoft o una Apple meten o sacan del espacio de Kérnel suelen ser en base a decidir entre estabilidad y eficiencia. Si algo casca en espacio de Kérnel, se lleva por delante todo el sistema, mientras que si lo hace en espacio de usuario pues puede que incluso ni notes que lo ha hecho y que se ha reiniciado. El problema es que atravesar la barrera entre ambos espacios tiene su penalización. Por eso, por ejemplo, Apple pone sus gestores de dispositivo en espacio de Kérnel (y por eso, con la tarjeta de vídeo profesional del trabajo y la de UltraSCSI, tirando a obsoletas respecto a la versión de OS X que hemos ido utilizando, he llegado a tener varios Pánicos de Kérnel semanales en determinadas épocas).

 

En estas cosas siempre hay compromisos de por medio.

Edited by Juan

Share this post


Link to post
Share on other sites
Y dónde encaja el Condensador de Fluzo en todo esto que estáis comentando ??

 

 

:D

Share this post


Link to post
Share on other sites

Sin animo de trollear, pero hablais de windows como una mquina de tragar recursos ( que lo es para que engañarnos ) y que los demas incluido osx son ligeras y versatiles.Yo sinceramente veo mi opensuse con compiz fusion ahora mismo tragar como un mandril en una baccanal despues de una semana sin comer.

 

Realmente la virtualizacion es el futuro a nivel empresarial y en un futuro a nivel domestico y quien no se prepare para esto la lleva cruda dentro de no tanto tiempo.

Share this post


Link to post
Share on other sites
Sin animo de trollear, pero hablais de windows como una mquina de tragar recursos ( que lo es para que engañarnos ) y que los demas incluido osx son ligeras y versatiles.Yo sinceramente veo mi opensuse con compiz fusion ahora mismo tragar como un mandril en una baccanal despues de una semana sin comer.

 

Realmente la virtualizacion es el futuro a nivel empresarial y en un futuro a nivel domestico y quien no se prepare para esto la lleva cruda dentro de no tanto tiempo.

Realmente la virtualización en Windows podría tener una función diferente a la habitual.

Se trataría de poder "empezar de cero" sin ataduras de compatibilidad hacia atrás, y dar soporte a las aplicaciones viejas a través de una máquina virtual. Básicamente lo que hace el entorno classic en MacOS X.

 

Ahora mismo Windows lo tiene chungo para evolucionar porque tienen que seguir funcionando todas las cosas pensadas para el windows actual. No se pueden cargar el registro, por ejemplo. Pero si consiguen hacer una caja virtual donde corran las aplicaciones viejas de la forma más transparente posible, podrán desarrollar un nuevo Windows con mucha mayor libertad.

Fijate que eso es justo lo que hizo Apple... y le salió bien.

Share this post


Link to post
Share on other sites

Independientemente de todo esto, el asunto es que la virtualización parece ser un negociazo del copón para los centros de datos, y Microsoft está desesperada por comerse el pastel, soltando FUD como loca.

 

Y, de cara a OSes, siempre me he preguntado si no sería más cómodo tener, en vez de cuentas de usuarios (cuentas que efectivamente vayan a ser de diferentes usuarios, no cuentas utilitarias de un mismo usuario), PCs virtualizados enteros para cada usuario, aunque ocupen más disco. Menos follón y más portabilidad de lo que es de cada uno.

Edited by Juan

Share this post


Link to post
Share on other sites

Como curiosidad: dada la pequeña movida que están suponiendo los rumores y declaraciones sobre Windows 7 para 2009-10, el Paul "oh, es él" Thurrot explica un poco cómo es el calendario de desarrollo de un Windows, desde las primeras ediciones internas "Milestone", pasando por las ediciones Beta de cara a la galería, hasta que llega a las estanterías de los centros comerciales. Y qué deberíamos esperar ver en cada una de ellas, a base de oír campanas y de esos youtube que circulan por ahí. Interesantuelo.

 

http://www.winsupersite.com/showcase/win7_shipping.asp

Share this post


Link to post
Share on other sites
microsoft va a sacar una distro linux ?????

 

:mrgreen: :mrgreen: :mrgreen:

 

Lo dudo.

 

Volverán a XP y lo llamarán de otra forma. :P

Share this post


Link to post
Share on other sites

El Windows Vista es Windows 7 y el propio Thurrot ya dijo que la kernel en Vista es la misma que habra en Windows 7.

 

Se ha de tener en cuenta que el proyecto Longhorn (Windows 6) fue cancelado en el 2004 y rehecho de nuevo a lo que hoy conocemos como Vista (Windows 7 real).

Share this post


Link to post
Share on other sites

Yo creo que volverán a hacer una cagada...

 

Pero la gente aplicará el viejo dicho "come mierda, 5 billones de moscas no pueden estar equivocadas" y seguirán comprando windows "porque todo el mundo lo tiene".

 

¿Apuestas?

Share this post


Link to post
Share on other sites
El Windows Vista es Windows 7 y el propio Thurrot ya dijo que la kernel en Vista es la misma que habra en Windows 7.

El problema de Windows parece estar capas por encima del kernel. Más concretamente en la compatibilidad hacia atrás, que les imposibilita arreglar algunos desaguisados que ellos mismos montaron hace ya bastante tiempo.

 

Según parece, Windows Vista viene a ser un sistema de transición donde se ofrecen las librerias tradicionales de windows (win 32) y las nuevas WinFX junto a la plataforma .NET.

 

Al parecer, como todo el software para windows funciona sobre win32, Microsoft no tiene capacidad de maniobra para arreglar sus propios errores de diseño que causan todos los problemas en windows.

 

La solución es obvia: aplicar más o menos la "receta de Apple":

 

1.- Ofrecer unas nuevas API's y librerías correctamente diseñadas (que lógicamente no son compatibles con las anteriores).

 

2.- Para ofrecer compatibilidad con el soft actual, montarse algún tipo de virtualización al estilo de "classic" en MacOS X.

 

3.- Mientras tanto, ofrecer un S.O. con ambas librerías para tratar que los desarrolladores vayan actualizándose sin montar un caos. Y aquí es donde entra Windows Vista.

Edited by Jorge

Share this post


Link to post
Share on other sites
Pero la gente aplicará el viejo dicho "come mierda, 5 billones de moscas no pueden estar equivocadas" y seguirán comprando windows "porque todo el mundo lo tiene".

Y ojalá sea así. Llamadme mongolo, pero desde que uso MacOS X siento como que estoy en un pequeño oasis... ¡en el que no caben todos! :D

Edited by Sidsm

Share this post


Link to post
Share on other sites
El Windows Vista es Windows 7 y el propio Thurrot ya dijo que la kernel en Vista es la misma que habra en Windows 7.

El problema de Windows parece estar capas por encima del kernel. Más concretamente en la compatibilidad hacia atrás, que les imposibilita arreglar algunos desaguisados que ellos mismos montaron hace ya bastante tiempo.

 

 

 

Un detalle curioso. Con Vista me han vuelto a funcionar programas antiguos (para W95) que dejaron de hacerlo con XP. Me choco bastante esto, pues Vista ha cambiado bastantes cosas (a peor) pero en este caso, me dejo gratamente sorprendido.

 

Parece que el Service Pack 1 que esta al caer, mejorara el pesimo rendimiento de Vista, y dicen las malas lenguas que el SP3 para XP, le acercara mas a Vista en determinadas cosas, minimizando asi la diferencia entre ambos.

Share this post


Link to post
Share on other sites
¿Y por qué no un núcleo UNIX? Cuando Dave Cuttler estuvo en Digital Corporation (DEC) hizo una versión del VMS/VAX completamente portable a otras plataformas que fue cancelado por la propia DEC e hizo que Cuttler saltase a Microsoft formando parte del proyecto que por aquel entonces se llamaba OS/2 NT, luego el sistema fue evolucionando añadiendo elementos BSD al sistema hasta que tuvieron el Windows NT 3.1. El problema es que con el NT 4.0 decidieron ir engordando a la Kernel y luego de cara al 5.0 (2000, XP) hicieron lo contrario.

 

Las malas lenguas dicen que de hecho las primeras versiones de NT "tomaban prestado" un montón de VMS, y de hecho Microsoft pagó un pastonazo astronómico a la chita callando a DEC para evitar que les llevaran a los tribunales. Lo que hay de verdad no lo se, creo que las fuentes no se han contrastado nunca.

 

En cualquier caso, ya desde el principio NT mostraba un "diseño" de juzgado de guardia, y me cuesta creer que tuviera tanto que ver con VMS como dicen. Ante cambios de configuración estúpidos era necesario rearrancar el sistema, y eso muestra un más que deficiente diseño, y un rotundo fracaso a la hora de identificar la influencia de la configuración en el comportamiento del sistema, así como su aplicación. Vamos, que si no es en el arranque entiendo que eran incapaces de mantener el sistema en pie haciendo cosas tan tontas como cambiar una dirección IP. Recuerdo un chiste de la época en el que decían que salía una ventana diciendo: "Ha movido usted el ratón. Debe usted rearrancar el sistema para que el puntero se coloque en la nueva ubicación". Y la verdad es que el chiste no era tan exagerado como parece.

 

No creo que sea tan fácil. Cambiar "el núcleo" no es algo que se haga todos los días. Apple sudó tinta mucho tiempo tratando de hacerlo con Copland y finalmente no lo consiguieron.

No lo creas, eso es algo sobrevalorado. Fíjate, un chavalillo sin demasiadas ideas originales pudo hacer Linux basándose en Minix. Y por desgracia se basó menos en Minix de lo deseable.

 

Cuando finalmente se compró NeXT, todo el Sistema Mac estaba soportado en una caja de compatibilidad (una especie de máquina virtual) corriendo a la vez que el sistema anfitrión. Con el tiempo fueron portando algunas librerías al nuevo sistema de NeXT (las llamadas Carbon), y las aplicaciones se adaptaron también. Pero el sistema anterior nunca estuvo disponible fuera de esa máquina virtural (el Classic), ni las aplicaciones funcionaban sin cambios.
El NeXTStep (y Mac OS X) están basados en la arquitectura de Mach, que es un microkernel. Ojo, microkernel, como algunos iluminados pretenden hacernos creer, no significa que sea pequeño, sino que el microkernel realiza el equivalente a lo que en un procesador serían "microinstrucciones".

 

Muchos procesadores tienen un juego de instrucciones muy muy muy reducido, y las instrucciones complejas (por ejemplo, una instrucción de división o multiplicación) están basadas en esas llamadas microinstrucciones. En algunos equipos antiguos incluso era posible actualizar el microcódigo.

 

El microkernel de Mach consiste en eso. Un kernel que hace un conjunto reducido de operaciones elementales, y por encima de él las API del sistema operativo se presentan como "personalidades". Cuando se carga un binario se hace de manera que interactúa con la "personalidad" correspondiente, que es la que ofrece los servicios completos. Con una arquitectura así, es realmente posible tener un microkernel (Mach) con varias personalidades por encima (Windows, Mac OS, Unix/POSIX, AS/400, etc). Nótese que esto no es nada nuevo, Mach es un diseño de los años 80. Aunque también es cierto que Microsoft siempre se ha distinguido por ignorar sistemáticamente la literatura de investigación relevante. Si queréis disecar un micro kernel más que comprensible, echad un vistazo a un sistema operativo muy divertido llamado VSTA, diseñado por Andy Valencia. Pero las "personalidades" de Mach no tienen, nada, nada de nada, absolutamente nada que ver con una máquina virtual. Una máquina virtual es Parallels, VMWare, un sistema antiguo para SCO Unix llamado VP/ix, el sistema operativo VM de IBM, pero no las "cajas de compatibilidad" o "personalidades". Escribid 1000 veces: "El hecho de que las máquinas virtuales estén de moda no implica que ahora TODO sea una máquina virtual" :P

 

Peeeero, aquí viene el gran "pero", Microsoft no podía hacer eso porque se ahorcaron ellos mismos hace muchos años. Allá por los 90 saltó un escándalo acerca de montones de APIs no documentadas en Windows. Aplicaciones de Microsoft hacían llamadas a funciones misteriosas que no estaban documentadas, y que en ocasiones ofrecían importantes ventajas. Esto lo descubieron algunos desarrolladores, sobre todo Andrew Schulman. Este último publicó varios libros y una serie de artículos en la revista Dr. Dobb's Journal.

 

La gracia con las APIs no documentadas es que primero lo negaron, luego lo admitieron, luego proporcionaron información a algunos desarrolladores... En fin, gestión de crisis al más puro estilo de Microsoft. Incluso empezaron con un rollete revisionista diciendo "proporcionamos esa información", cuando la proporcionaron a algunos desarrolladores pero con más de un año de retraso.

 

Y la realidad es que usar esas "APIs" era muy mala idea. Muchas de esas funciones eran cosas internas cuya continuidad no estaba garantizada. Quien desarrolla un sistema no está obligado a documentarlo *TODO*, sino a garantizar que lo que está documentado se mantiene razonablemente estable. La Gran Cagada la cometió Microsoft utilizando esas funciones, que pronto empezó a utilizar otra gente.

 

Y, claro ¿qué ocurrió? En algún blog de Microsoft cuentan con espanto cómo de repente veían programas llamando a funciones rarísimas, cosa que nunca se hubieran imaginado, y cómo observaban con horror que alguna mejora que habían hecho daba al traste con montones de aplicaciones. Pero esa oleada de estupidez la desencadenaron ellos.

 

En definitiva, ¿a qué viene esto? Pues a que para Microsoft, con ese churro de sistema operativo, es harto difícil conseguir que funcione con una filosofía como Mach, entiendo. Hablamos de algo tan surrealista que al menos en Windows NT las librerías dinámicas estaban desprotegidas contra escritura ¡porque por algún extraño motivo Office las abría en modo de lectura/escritura!

 

Hacer eso ahora, con el tamaño que tiene Windows, sería mucho más complicado. Lo que parece está intentando con Vista, es ir introduciendo los cambios poco a poco. Con nuevas librerías, manteniendo a su vez las "viejas" (que son las que todo el mundo usa). Supuestamente, cuando una masa crítica de desarrolladores se hayan pasado a las nuevas librerías, Microsoft podrá cambiar "las tripas" y dejar de dar soporte nativo a las aplicaciones viejas, que tal vez funcionen en alguna máquina virtual.
No es un problema de tamaño, sino de orden. Para Apple no ha sido tan difícil mantener Carbon en Mac OS X. Pero, claro, las APIs de Apple siempre han estado claras, han proporcionado documentación con guías de diseño, y sobre todo han procurado que el S.O. proporcionara los servicios necesarios, en lugar de obligar a los desarrolladores a reinventar la rueda.

 

Sirva como ejemplo la ensalada heredada de MS/DOS, que afectó a OS/2 y a las primeras versiones de Windows. Como no había un soporte de red en condiciones, cada fabricante definía su especificación de drivers de red, con lo que había "Packet Drivers", "NDIS", "ODI"... Yo recuerdo que se me ponían los pelos como escarpias.

 

En ese sentido Vista es un primer paso en una estrategia a largo plazo.
No. Vista es un patinazo, un "quiero y no puedo", un engendro con lucecitas que han sacado porque eran incapaces de hacer algo mejor. Y la han cagado hasta extremos increíbles. Si, esa API nueva llamada ".Net" es su estrategia de futuro. Pero internamente, y creo que de tripas es de lo que hablamos, sigue estando la misma mierda con un par de medidas de seguridad básicamente reactivas, que no atacan el problema de raíz, y eso si, infectado con DRM por todas partes. Luego la gente se escandaliza de que Apple haya dado a las aplicaciones la posibilidad de que herramientas como DTrace o gdb no las sigan.

 

 

 

Curiosamente, hubo una cierta discusión en su momento sobre si Apple no debería cambiar el núcleo de OS X por otro (siempre salía Linux a la palestra), porque el que tiene no es exactamente ideal. Si

El problema del cultivador de bonsais (es decir, aficionado a Linux cuyo pasatiempo diario es instalar y desinstalar distribuciones, paquetes, paquetitos y paquetones) es que cualquier cosa que no sea Linux es un desastre, y Linux es la solución de todos los males. Antes eran los usuarios de Amiga, que decían que era el mejor sistema operativo del mundo y bla, bla, bla.

 

Y Unix, que es ya más viejo que mear en pared (justo tiene mi edad, mira tú) al menos ha demostrado que las principales decisiones de diseño iniciales (mantenerlo simple, generalizar en lo posible la idea de que la entrada/salida se haga a través de archivos) fueron MUY acertadas. Por contra, sistemas operativos con muchas más pretensiones y muchísima más complejidad (léase, Windows) han fracasado estrepitosamente. Ojo, hablo del punto de vista de calidad de software y arquitectura, me da igual cuanta gente lo usa.

 

La verdad es que no estaría mal darle un relevo a Unix, que ya va siendo hora, pero la cosa no es fácil. En los años 80/90, los Laboratorios Bell, cuna de Unix, diseñaron un nuevo sistema operativo distribuido muy interesante llamado Plan 9, que llevaba al extremo algunas de las decisiones de diseño de Unix, y el resultado es francamente interesante. Por desgracia, hoy día es imposible salir de donde estamos. A efectos prácticos los descendientes de Unix se portan mejor que bien (aunque con importantísimas limitaciones sobre todo desde el punto de vista de seguridad y escalabilidad), y por el otro el mercado está completamente saturado de basura (léase Windows y adláteres).

 

En fin... Hale, tomad ladrillo :P

Edited by borjam

Share this post


Link to post
Share on other sites

Fantástico ladrillo Borjam.

 

Según recuerdo, Apple lo pasó muy mal en la época de Copland para renovar el sistema manteniendo la compatibilidad.

De hecho la principal razón que daban para sus retrasos (y posterior abandono) fue que no podían cambiar ciertas cosas "de las tripas" sin dar al traste con la compatibilidad hacia atrás.

 

Curiosamente, la solución que adoptaron con MacOS X no se les pasó por la cabeza (o no pudieron ponerla en práctica con Copland): Montarse una caja de compatibilidad con todo el sistema clásico (que de hecho arranca enterito cuando activamos classic).

 

Al margen de que no sea técnicamente virtualizar, el hecho es que la solución ofrecida para mantener la compatibilidad fue arrancar un sistema operativo completo (MacOS 9) dentro de MacOS X. No hay compatibilidad nativa.

 

Supongo que con Copland no lo pudieron hacer por falta de recursos hardware. Por aquella época –1995– lo normal eran máquinas con 8 a 32 megas de RAM y 500 MB a 1 GB de disco duro. La solución de arrancar el sistema 7 entero dentro de Copland no parece muy viable con esas máquinas.

 

MacOS X salió 5 años después, con unos requerimientos de hardware impensables para la época de Copland (128MB de RAM), y supongo que la caja de compatibilidad ya era viable.

 

Según lo que he podido leer, sencillamente la arquitectura de MacOS (descendiente del Mac128k) no estaba pensaba para multitarea, protección de memoria,... y no había forma de añadir esas funciones manteniendo compatibilidad directa con las aplicaciones. Leyendo por aquí se puede entrever de donde venían algunos problemas

Share this post


Link to post
Share on other sites
Según lo que he podido leer, sencillamente la arquitectura de MacOS (descendiente del Mac128k) no estaba pensaba para multitarea, protección de memoria,... y no había forma de añadir esas funciones manteniendo compatibilidad directa con las aplicaciones. Leyendo por aquí se puede entrever de donde venían algunos problemas

Ojo, era válido para multitarea. Yo he empezado a usar Mac hace sólo 5 años, con Mac OS X, pero ¿desde qué versión tiene Mac OS "clásico" la funcionalidad de esconder una tarea y pasar a otra, aunque no estén ejecutándose "todas a la vez"?

 

No hay que confundir multitarea con concurrencia (que significa que tienes varios procesos ejecutándose de manera que parecen estar corriendo simultáneamente). Mac OS era multitarea.

 

Otra cosa es que no tuviera protección de memoria. En un principio derivado del hecho de que los Macintosh básicos de la época del 68000 no llevaban unidad de gestión de memoria (MMU), que en el 68000 era un chip aparte.

 

Pero vamos, por supuesto hay programadores que hacen burradas. Claro que cuanto mejor sea el API de un sistema operativo, menos burradas tienden a hacer los programadores. Pero aún está fresco lo que pasó a los usuarios que actualizaron a Leopard, teniendo instalado en la carpeta del sistema el engedro ese de "Application Enhancer". Hay que se animales (lo digo por los desarrolladores del engendro).

Share this post


Link to post
Share on other sites
Curiosa la comparativa entre el NT 3.1 y el 2000

A mi me ha dado un ataque de risa histérica con esa primera transparencia:

 

"Diseño para multiprocesador simétrico (SMP) seguro y escalable".

 

O esa otra (11) en la que dicen...

 

"La Cultura NT: Portabilidad (vale, eso si, aunque con peros(*)), Fiabilidad, Seguridad, Extensibilidad".

 

En fin...

 

 

 

 

 

(*) Según parece NT tenía una pertinaz resistencia a funcionar en procesadores "big-endian" como SPARC, 68000 de Motorola, etc. Cuando eso ocurre quiere decir que los diseñadores NO han hecho

sus deberes. Para que funcionara en MIPS y (si no me equivoco) PowerPC fue necesario que el

procesador MIPS de turno, que por defecto era big-endian, fuera configurable para ponerse en modo big-endian. Surrealista, ¿no? :lol:

Edited by borjam

Share this post


Link to post
Share on other sites
Realmente, las cosas que un Microsoft o una Apple meten o sacan del espacio de Kérnel suelen ser en base a decidir entre estabilidad y eficiencia. Si algo casca en espacio de Kérnel, se lleva por delante

La regla que mejor funciona a la hora de decidir qué va en el kernel y qué no es muy simple:

 

"¿Es imprescindible que esté en el kernel?". Por supuesto en el caso de Microsoft la norma es otra, y de hecho no me cabe en la cabeza cuál es, pero esa es otra historia. Tampoco imagino sus procesos mentales cuando desarrollan algo.

 

su penalización. Por eso, por ejemplo, Apple pone sus gestores de dispositivo en espacio de Kérnel (y por eso, con la tarjeta de vídeo profesional del trabajo y la de UltraSCSI, tirando a obsoletas respecto a la versión de OS X que hemos ido utilizando, he llegado a tener varios Pánicos de Kérnel semanales en determinadas épocas).

El que estén o no en el kernel depende de más cosas que la simple velocidad. Y los problemas de integración se deben a que tradicionalmente el interfaz entre los controladores de dispositivos y el resto del kernel ha sido muy volátil. En una versión de sistema operativo se puede cambiar completamente la gestión de memoria virtual sin que las aplicaciones se enteren. En FreeBSD, por ejemplo, se ha cambiado en 10 años unas 5 veces si no me equivoco.

 

La diferencia es que creo que ahora Apple ha definido un buen interfaz cuya estabilidad garantizan dentro de lo posible, lo que facilitará enormemente el desarrollo de drivers y evitará en parte las dependencias que se dan ahora. De hecho creo que hay dispositivos que ya usan dicho interfaz, y muchos drivers han funcionado en Leopard sin más historias.

Share this post


Link to post
Share on other sites
Ojo, era válido para multitarea. Yo he empezado a usar Mac hace sólo 5 años, con Mac OS X, pero ¿desde qué versión tiene Mac OS "clásico" la funcionalidad de esconder una tarea y pasar a otra, aunque no estén ejecutándose "todas a la vez"?

 

Desde que apareció el Multifinder, allá por el Sistema 5 (cuando el Mac OS no tenía ni nombre).

 

http://en.wikipedia.org/wiki/MultiFinder

 

Aunque creo que hay una aplicación anterior que lograba algo parecido a la multitarea...

Share this post


Link to post
Share on other sites

Bueno, lo que había era multitarea cooperativa: si un programa no era tan amable como para ceder ciclos a los demás, se quedaban compuestos y sin novia. Y no sé qué lío de tenerlo todo funcionando en el modo Supervisor del procesador.

 

La idea en OS X era que en Tiger se estabilizaban las interfaces del Kérnel, pero supongo que el paso a Intel volvió a enfollonarlo todo.

Share this post


Link to post
Share on other sites
(*) Según parece NT tenía una pertinaz resistencia a funcionar en procesadores "big-endian" como SPARC, 68000 de Motorola, etc. Cuando eso ocurre quiere decir que los diseñadores NO han hecho

sus deberes. Para que funcionara en MIPS y (si no me equivoco) PowerPC fue necesario que el

procesador MIPS de turno, que por defecto era big-endian, fuera configurable para ponerse en modo big-endian. Surrealista, ¿no

Y tanto si es surrealista y más si miras el siguiente párrafo sobre la definición del ACE (Advanced Computer Environment) en la Wikipedia:

 

Soon after the ACE initiative was announced, a dissenting faction of seven ACE members declared that the decision to support only little-endian architectures was short-sighted. This subgroup, known as the Apache Group, promoted a big-endian alternative. (the name was unrelated to the later Apache Software Foundation, and was conceived as a pun on "Big Indian". This group later promoted themselves under the name MIPS/Open). A rift within the ACE consortium was averted when it was decided to add support for big-endian SVR4.[2]

 

pero esto también es curioso:

 

email from an ex-Intel employee.

 

quote

 

"Given your interest in VMS you might find this amusing. In the early 1990's

we visited Microsoft to try to ensure that their new OS "Windows NT" would

be available on IA32. We met with Dave Cutler, and he was adamant that IA32

was doomed and would we please get lost so he could target Alpha and then

whatever 64-bit architecture was certain to replace IA32 by Intel. It was

not a polite disagreement; that guy HATED IA32 and wasn't reluctant to

transfer his displeasure to IA32's representatives (us). What an ugly

business meeting. Smart guy, though."

 

/quote

 

I asked for a clarification on the phrase "IA32" as it pertains to this

quote and was told that it refers to both 486 (which was in production in

1990) and Pentium which was still in development.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.