Gå till innehåll
Just nu i M3-nätverket

Första Intel-Macen redan bättre på OS X


Simon Grabiec

Rekommendera Poster

Borde inte Intels "hårdvaruantivirus"-funktioner vara till viss hjälp? NX eller vad det nu kallas...

Jag tänker säga något vågat: om inte Intel hade avbrutit NetBurst hade inte Apple bytt. Apple har inget intresse av Pentium 4:an. Dom har lagt ner på tok för mycket krut på att snacka skit om den för att kunna byta till den (i en produkt, alltså, inte en utvecklarlåda). Dessutom är den ju inte speciellt välanpassad till Apples produktlinje, med sina ~150 watt per processor.

 

Det återstår att se.

 

Och nej bufferoverflows är inte på någotsätt platforms specifika dom är bara mycket mycket svårare att få till på PowerPC:n just pga harvard architekturen, data och instruktioner lagras separat i L1 cachen, så om man gör självmodifierande kod (vilket bufferexploits är en form av) så måste man flusha cachen alternativt försöka lyckas skriva över retur addressen och sedan lägga in ett helt nytt kodblock vars addresser inte redan finns i cachen, det är betydligt svårare vilket är varför buffer exploits inte är så vanliga på macen, däremot buffer overflows är lika vanliga med resulterar då i krash istället.

Länk till kommentar
Dela på andra webbplatser

  • Svars 90
  • Created
  • Senaste svar
Och nej bufferoverflows är inte på någotsätt platforms specifika dom är bara mycket mycket svårare att få till på PowerPC:n just pga harvard architekturen, data och instruktioner lagras separat i L1 cachen, så om man gör självmodifierande kod (vilket bufferexploits är en form av) så måste man flusha cachen alternativt försöka lyckas skriva över retur addressen och sedan lägga in ett helt nytt kodblock vars addresser inte redan finns i cachen, det är betydligt svårare vilket är varför buffer exploits inte är så vanliga på macen, däremot buffer overflows är lika vanliga med resulterar då i krash istället.

Tack för den förklaringen. :)

 

 

 

mikaellq, du missar det viktiga... Om man sitter hela dagarna och kör Photoshop på stora bilder vill man ju ha den dator det flyter bäst på, inte sant? Spelar det då någon roll man Adobe lägger ner "mer krut" på PPC eller x86? Datorn är ett verktyg som man använder för att kunna använda andra verktyg för att uppnå ett resultat. Vilken som är bäst i teorin spelar ingen som helst roll. Visst skulle jag mycket hellre se en storsatsning på PPC och att fler utvecklare lärde sig optimera för det, men det är inte ekonomiskt gångbart. IBM tjänar knappt in utvecklingskostnaderna för Apples processorer, och därför blir utvecklingen långsammare. All teoretiskt prestanda i hela världen kan inte konkurera med dom miljarder som Intel kan lägga på att utveckla bättre processorer. Det är även så x86 har lyckats ta sig ikapp/förbi PPC i prestanda. Visst är det faktum att fler optimerar bättre för x86 en stor faktor, men tro inte att Intels ingenjörer är inkompetenta. PPC startade med ett enormt försprång som Intel lyckades ta igen, för det mesta.

Länk till kommentar
Dela på andra webbplatser

men tro inte att Intels ingenjörer är inkompetenta.

 

Tvärtom Intel har visat sig ha några av dom bästa processor ingenjörerna i industrin, det dom lyckats göra med x86:an är nära på som att bygga om en veteranbil till en formula ett.

Sedan kommer dom gång på gång på nya optimeringstekniker på hårdvarunivå som ger dom ett försprång, tex var dom de första som hade helt automatiserad CPU design; hyperthreading ("dual core") är andra intel uppfinningar som exempel.

Sedan kan man tycka vad man vill om Intel, men dom är iallafall ett företag som varit med ända från persondatorns början på processor sidan; Lite ironiskt kanske ? men IBM är precis lika mycket skyldiga till x86:an som Intel, det är IBMs PC som ligger tillgrund till alla x86 PCs som finns idag, IBM valde att använda Intels processorer.

 

Sedan som sagt vad det gäller effektivitet, den Pentium-M som Intel har på sin roadmap verkar för bra för att vara sann, helt överlägsen prestanda/watt. och det är ett tydligt tecken på Intels Ingenjörskonst; Inte ens powerpc:n som har en betydligt simplare uppbyggnad bara en bråkdel av dom transistorer och den yta x86:an har, och fortfarande är den mindre energi effektiv, märkligt.

Länk till kommentar
Dela på andra webbplatser

Sedan så hör man hela tiden folk som säger "det är bara utvecklingsdatorerna som är x86, dom nya macarna kommer vara något annat".

Förutom att det är felaktigt så vore det precis ologisk ifall apple skulle skicka ut x86 utvecklingsdatorer till utvecklare och sedan annonsera yttligare en ny processor architektur.

Pentium-M är x86 precis som alla andra Pentiums, Pentium-M är baserad på Pentium-4 förövrigt.

Jag tror Pentium-M kommer sitta i laptops och möjligtvis även macmini liknande datorer, medans dom stationära förmodligen får vanliga Pentium-4 eller dyl.

Länk till kommentar
Dela på andra webbplatser

mikaellq, du missar det viktiga... Om man sitter hela dagarna och kör Photoshop på stora bilder vill man ju ha den dator det flyter bäst på, inte sant? Spelar det då någon roll man Adobe lägger ner "mer krut" på PPC eller x86? Datorn är ett verktyg som man använder för att kunna använda andra verktyg för att uppnå ett resultat. Vilken som är bäst i teorin spelar ingen som helst roll.

159103[/snapback]

Photoshop är enormt hungrig på minne, 1-2 gigabytes kan i många fall ge en dramatisk prestandaökning. Jag installerade också Altivec Update. Jag skulle tro, har inte mätt exakt, att redigering av bilder är nu allt från något snabbare till omkring 50 gånger kanske.

 

Det går ganska hyfsat effektivt att redigera bilder med PS numera, men sitter betydligt oftare med Graphicconverter. Subjektivt så är inte Photoshop så mycket bättre på en Windows PC, men det kan bero på Windows.

Visst skulle jag mycket hellre se en storsatsning på PPC och att fler utvecklare lärde sig optimera för det, men det är inte ekonomiskt gångbart. IBM tjänar knappt in utvecklingskostnaderna för Apples processorer, och därför blir utvecklingen långsammare. All teoretiskt prestanda i hela världen kan inte konkurera med dom miljarder som Intel kan lägga på att utveckla bättre processorer. Det är även så x86 har lyckats ta sig ikapp/förbi PPC i prestanda. Visst är det faktum att fler optimerar bättre för x86 en stor faktor, men tro inte att Intels ingenjörer är inkompetenta. PPC startade med ett enormt försprång som Intel lyckades ta igen, för det mesta.

I jämförelser med program gjorda först och främst för x86 och Windows.

Jag gråter krokodiltårar över detta elände att marknaden ska ha så mycket mer att säga till om än vetenskap och sunt förnuft. x86 må ha förfinats mycket väl genom åren av både Intel och AMD men den är fortfarande en dinosaurie som för länge sedan borde ha varit historia.

 

Jag hade hellre sett riktig utveckling utan många av de begränsningar Intel har att dras med, utan detta ständiga behov av bakåtkompatibilitet, där man kan nå något mer optimalt någon gång i framtiden. Nu, med Intels totala dominans, verkar det nästan hopplöst. :(:cry:

Länk till kommentar
Dela på andra webbplatser

Pentium-M är baserad på Pentium-4 förövrigt

Pentium M är baserad på Pentium 3, inte 4. Den är inte NetBurst, utan något annat. Inte ens Intel kan få en NetBurst-processor att använda så lite ström. ;)

 

 

 

Jag tror Pentium-M kommer sitta i laptops och möjligtvis även macmini liknande datorer, medans dom stationära förmodligen får vanliga Pentium-4 eller dyl.

Jag är inte helt övertygad om det. En P4:a är på tok för varm för en Mac mini eller iMac, då skulle dom hellre använda en G5:a. Jag gissar att iMacen får en Pentium M-baserad "stationär" processor, och Mac mini en Celeron M-baserad. PowerMacen får naturligtvis Xeons, men om det är Xeons baserade på Pentium 4 (som dagens) eller på Pentium M får tiden utvisa.

 

 

 

Mikaelg, nu ger jag upp. Du kommer aldrig med några vetenskapliga argument som helst, du bara säger "PPC är mycket bättre än x86" om och om igen, medans du håller för öronen. Så ok då, på grund av din envishet: ja, PPC är mycket bättre än x86. Enormt. Dom går inte ens att jämföra. Så, håll dig borta från trådar om processorarkitektur i fortsättningen.

Länk till kommentar
Dela på andra webbplatser

Jävlar, ni har gnabbat ett tag om detta, skall Razors suck göra slut på diskussionen... :P

 

Hade varit kul att faktiskt se någon annan "nyhet"... nån som vill flytta tråden till annan del av forumet kanske?

Länk till kommentar
Dela på andra webbplatser

Jävlar, ni har gnabbat ett tag om detta, skall Razors suck göra slut på diskussionen... :P

159918[/snapback]

Han fattar inte att enorm marknadsandel inte innebär att det är bättre per automatik.

 

W = (m*(f*l)^2)/2

 

Den mängd arbete som utförs är alltså proportionellt med frekvensen, högre frekvens innebär mer arbete m.a.o. (dramatiskt mycket mer eftersom frekvensen är kvadrerad)

 

Energi = rörelse = värme.

 

Dessa mikroskopiska chips är väldigt känsliga för värme så

mindre värme = bra!

Vilket borde betyda att lägre frekvens = bra!

 

x86 är en gammal kvarleva från 70 och 80-talet då CISC dominerade, de interna registren var färre, bara EN att använda (åtminstone i fallet Motorola 6502).

Färre register är väldigt dåligt då man dels vill undvika RAM och dels för att det går åt mer energi. Några av x86 registren är inte "general purpose" som borde vara att föredra, utan "special purpose". Flaskhalsar.

Vad jag vet så har Intels processorer fler transistorer än någon annan.

 

Så om Intel pushar på så mycket med högre MHz = bättre, så må det vara bra marknadsföring men deras CPU förblir väldigt ineffektiva.

Länk till kommentar
Dela på andra webbplatser

Jag vill verkligen inte låta oförskämd, för jag tycker inte om att bygga argument på sådant, men du vet verkligen ingenting om processorer. Det enda du gör är häver ur dig floskler om saker som stämde på 70-talet, men inte är mer än saker man säger för att förklara "hur det egentligen fungerar" för folk som inte vet något om processorer (RISC och CISC, till exempel) och har lite med verkligheten att göra.

Länk till kommentar
Dela på andra webbplatser

Pentium M är baserad på Pentium 3, inte 4. Den är inte NetBurst, utan något annat. Inte ens Intel kan få en NetBurst-processor att använda så lite ström. ;)

 

Err ja det är korrekt, jag blandade ihop dom här, den är bara buskompatibel med Pentium 4.

Länk till kommentar
Dela på andra webbplatser

Han fattar inte att enorm marknadsandel inte innebär att det är bättre per automatik.

 

W = (m*(f*l)^2)/2

 

Den mängd arbete som utförs är alltså proportionellt med frekvensen, högre frekvens innebär mer arbete m.a.o. (dramatiskt mycket mer eftersom frekvensen är kvadrerad)

 

Energi = rörelse = värme.

 

Dessa mikroskopiska chips är väldigt känsliga för värme så

mindre värme = bra!

Vilket borde betyda att lägre frekvens = bra!

 

x86 är en gammal kvarleva från 70 och 80-talet då CISC dominerade, de interna registren var färre, bara EN att använda (åtminstone i fallet Motorola 6502).

Färre register är väldigt dåligt då man dels vill undvika RAM och dels för att det går åt mer energi. Några av x86 registren är inte "general purpose" som borde vara att föredra, utan "special purpose". Flaskhalsar.

Vad jag vet så har Intels processorer fler transistorer än någon annan.

 

Så om Intel pushar på så mycket med högre MHz = bättre, så må det vara bra marknadsföring men deras CPU förblir väldigt ineffektiva.

159977[/snapback]

 

Men sedan är det även så att PowerPC är ingen renodlad RISC, den har många CISC element (mängder av SPR register tex, den har många komplexa instruktioner också, flera addresserings sätt osv.)

Precis som x86:orna har många RISC element.

Sedan är PowerPC enkvar leva från 70 talet också, Den baseras från början på POWER architekturen (var från Power i PowerPC kommer), vilket i sin tur baseras på IBMs 801 processor från 70-talet.

Men vad har det med saken att göra ?

Idag har vi ett "UNIX" macos, UNIX är också ett system från 70 talet, tillskillnad från det moderna nytänkande från 80 talet som det "gamla" cooperativa icke minneskyddade MacOS baserades på, det är bara att inse att bara för att något är "70 tals teknologi" innebär det inte automatiskt att det är sämre.

Sedan hade även dom första Macarna CISC baserade 68k processorer, så det är inget "nytt" för apple heller. (och apple II osv använde cisc processorer också)

Faktum är att x86:orna presterar överlag bättre än PowerPC:n idag men visst finns det delar som PowerPC:n är bättre på, och tvärtom likaså.

Apple har ivilketfall gjort sitt val sedan har det ingen som helst betydelse om vi argumenterar att PowerPC:n är tekniskt överlägsen eller inte, PowerPC för desktop dog ioch med att Apple valde x86.

 

Sedan en sak till att slå hål på x86orna har mängder med register (minst lika många som PowerPC:n) dock kan man inte addressera dessa direkt, utan dom är så kallade rename register, som processorn själv involverar, x86:orna är betydligt mer avancerade i just automatiserad optimering, man tappar mycket av kontrollen man hade på PowerPC och måste förlita sig mer på processorn; men samtidigt så innebär det att tillskillnad från PowerPC:n där man var tvungen att ändra ganska markant i varje binär för att få "optimala" resultat så sköter processorn det automatiskt vid körtid.

 

Vad det gäller minnesanvändning så är det snarare motsatsen; CISC är mer minneseffektiv, varför ? för det första så har inte CISC fixerade instruktioner, en PowerPCs instruktioner tar alltid 4 bytes, en x86 har instruktioner från allt mellan 2 till 6 bytes, det gör det betydligt lättare att göra programmen mindre; som exempel räcker det med att du går till demo scenen, titta på dessa 256 byte demos eller tom 4096 byte demos; det är helt otroligt så mycket som man kan packa in i dom storlekarna på en x86, 4096 bytes på en powerpc räcker endast till 1024 instruktioner; sedan som jag sa tidigare så är det problematiskt att blanda data och instruktioner på PowerPC:n pga dess harvard architektur vilket gör att det är enormt svårt att generera kod "on the fly" vilket man kan göra relativt enkelt på x86:an.

 

Det andra färre register = mindre data att backa upp vid kontext byte, detta spar både ram och tid efter som kontext byten blir mindre.

 

Och så sist x86:an kan addressera minnet direkt, man kan göra operationer direkt på minne utan att behöva läsa in datan i register först.

Länk till kommentar
Dela på andra webbplatser

Men sedan är det även så att PowerPC är ingen renodlad RISC, den har många CISC element (mängder av SPR register tex, den har många komplexa instruktioner också, flera addresserings sätt osv.)

Precis som x86:orna har många RISC element.

160046[/snapback]

Åtminstone jag definierar RISC som de processorer som har kring 32 register och de enklaste, en-cykel instruktionerna. Annars håller jag med i princip, dagens processorer är mer "hybrider" för att använda ett finare ord. Tittar man på assembler koden så tycker jag inte att x86-kod är speciellt RISC-lik, som PPC-kod är.

Apple har ivilketfall gjort sitt val sedan har det ingen som helst betydelse om vi argumenterar att PowerPC:n är tekniskt överlägsen eller inte, PowerPC för desktop dog ioch med att Apple valde x86.

Visst, så är det. Jag har dock försökt att förklara att det inte var en direkt briljant idé ur teknisk synvinkel. Vi har ju åtminstone kommit överens om att det var mer kvantitet i produktion än teknik som avgjorde Apples val.

Sedan en sak till att slå hål på x86orna har mängder med register (minst lika många som PowerPC:n) dock kan man inte addressera dessa direkt, utan dom är så kallade rename register, som processorn själv involverar, x86:orna är betydligt mer avancerade i just automatiserad optimering, man tappar mycket av kontrollen man hade på PowerPC och måste förlita sig mer på processorn; men samtidigt så innebär det att tillskillnad från PowerPC:n där man var tvungen att ändra ganska markant i varje binär för att få "optimala" resultat så sköter processorn det automatiskt vid körtid.

Än sen då? PowerPC har haft detta sedan 604.

Det är dock bara internt, för spekulativ exekvering. En process kan aldrig nyttja mer än 8 i en x86 processor, en PPC process har alltid 32. Pentium processorn måste alltså läsa & skriva till minnet mycket mer vilket är en flaskhals, en bromskloss.

Vad det gäller minnesanvändning så är det snarare motsatsen; CISC är mer minneseffektiv, varför ? för det första så har inte CISC fixerade instruktioner, en PowerPCs instruktioner tar alltid 4 bytes, en x86 har instruktioner från allt mellan 2 till 6 bytes, det gör det betydligt lättare att göra programmen mindre; som exempel räcker det med att du går till demo scenen, titta på dessa 256 byte demos eller tom 4096 byte demos; det är helt otroligt så mycket som man kan packa in i dom storlekarna på en x86, 4096 bytes på en powerpc räcker endast till 1024 instruktioner; sedan som jag sa tidigare så är det problematiskt att blanda data och instruktioner på PowerPC:n pga dess harvard architektur vilket gör att det är enormt svårt att generera kod "on the fly" vilket man kan göra relativt enkelt på x86:an.

Detta beror delvis på de 32 resp. 8 registren, 32 behöver fler bits i en instruktion.

"Harvard arkitektur" borde ses som något positivt då den är snabbare, kan hämta en instruktion samtidigt som den kör en annan. En von Neumann är mer begränsad på detta viset.

Det andra färre register = mindre data att backa upp vid kontext byte, detta spar både ram och tid efter som kontext byten blir mindre.

Detta får bara betydelse om datorn kör många små och korta processer, annars i stort vinner processorn med fler register.

Och så sist x86:an kan addressera minnet direkt, man kan göra operationer direkt på minne utan att behöva läsa in datan i register först.

Om att först läsa från RAM och sedan utföra en beräkning inte kostar mer, sannolikt betydligt mindre än i x86 fallet, så spelar det ju ingen roll. Du har ju också större flexibilitet med enklare instruktioner, du kan ju instruera processorn exakt vad den ska göra, eller hur?

Länk till kommentar
Dela på andra webbplatser

Åtminstone jag definierar RISC som de processorer som har kring 32 register och de enklaste, en-cykel instruktionerna. Annars håller jag med i princip, dagens processorer är mer "hybrider" för att använda ett finare ord. Tittar man på assembler koden så tycker jag inte att x86-kod är speciellt RISC-lik, som PPC-kod är.

Och återigen, här skiljer sig inte PowerPC och x86 något, PowerPC:n har varken mer eller färre en cykel instruktioner än vad x86:an har. det är en myt att RISC skulle ha att göra med antal cykler eller antal register, det enda RISC innebär är att man reducerar antalet addresserings möjligheter, vilket iregel innebär att man måste kompensera detta med en större mängd register; efter som processorn måste ha all data i register som den opererar på i en RISC processor. en CISC behöver inte det därmed är antalet register inte lika begränsande.

 

Nej x86:an ÄR CISC, sedan hur ser RISC assembler ut ijämförelse med CISC assembler i din skola ?

Visst, så är det. Jag har dock försökt att förklara att det inte var en direkt briljant idé ur teknisk synvinkel. Vi har ju åtminstone kommit överens om att det var mer kvantitet i produktion än teknik som avgjorde Apples val.

Och återigen _vad_ är teknisk synvinkel ? teoretiskt eller praktiskt ?

det är praktiken som spelar roll sedan som vi redan konstaterat så spelar den ingen som helst roll om processor X är 20 gånger snabbare än processor Y rent teoretiskt, kan inte praktiken bevisa det har det ingen som helst relevans.

 

Än sen då? PowerPC har haft detta sedan 604.

Det är dock bara internt, för spekulativ exekvering. En process kan aldrig nyttja mer än 8 i en x86 processor, en PPC process har alltid 32. Pentium processorn måste alltså läsa & skriva till minnet mycket mer vilket är en flaskhals, en bromskloss.

Jag påstod inte rename register är något nytt, det jag sa är att x86:an har betydligt fler än vad PowerPC:n har register totaltsett, kommer jag inte ihåg helt fel så har G4:an runt 10 rename register (om jag inte kommer ihåg helt fel) medans x86an har minst 40 vad jag känner till iallafall.

 

Detta beror delvis på de 32 resp. 8 registren, 32 behöver fler bits i en instruktion.

"Harvard arkitektur" borde ses som något positivt då den är snabbare, kan hämta en instruktion samtidigt som den kör en annan. En von Neumann är mer begränsad på detta viset.

32 behöver exakt 5 bits, men som jag sa; CISCen kan addressera på flera sätt och detta måste markeras på något sätt i instruktionen. sedan har det inte något som helst att göra med antalet register; fixerad instruktions längd var en teori man hade att slippa behöva ha någon avancerad instruktionsdekoder då man kunde läsa in exakt 4 bytes åtgången; därmed hade man alltid en instruktion. en CISC har varierande instruktionslängd som jag sa itidigare post.

 

harvard arkitektur har inget med effektivitet att göra, det var en ekonomisk sak frånbörjan; det var billigare att dela upp minnet i två delar; minne som ändras och minne som var statiskt, (data vs instruktioner)

Med detta kunde man köpa begränsade mängder ram och använda som "arbetsminne", och ha själva programmet i ROM (statiskt minne), ROM var betydligt billigare på den tiden.

Observera det är bara PowerPC:ns cache som har harvard arkitektur, resten av minnes systemet är av von neumann typ.

Den bästa lösningen visade sig ligga någonstans emellan dessa tekniker.

 

Detta får bara betydelse om datorn kör många små och korta processer, annars i stort vinner processorn med fler register.

Vad har det med program storleken att göra överhuvudtaget ?

Och återigen jag förstår inte varför i h***** du envisas argumentera om det hela tiden när du vet mycket väl att det praktiskt inte är något skillnad.

 

Om att först läsa från RAM och sedan utföra en beräkning inte kostar mer, sannolikt betydligt mindre än i x86 fallet, så spelar det ju ingen roll. Du har ju också större flexibilitet med enklare instruktioner, du kan ju instruera processorn exakt vad den ska göra, eller hur?

återigen RISC har inget med "enklare"/mindre/kortare instruktioner att göra, "reducerad" innebär endast att instruktionerna finns ifå addresserings lägen.

du har precis lika fin kontroll överprocessorn på en CISC som på en RISC.

Länk till kommentar
Dela på andra webbplatser

Vi säger så här...

 

Du ska köpa en bil. Som de flesta andra bilköpare, så vill du ha bilen som ger dig bäst prestanda, utan att den kostar mer - helst ska den kosta mindre än den sämre bilen.

 

Den ena drivs av en 6-cylindrig MBI-motor, och den andra av en 8-cylindrig Letni-motor. Letni-motorn har 240 hästar, medan MBI-motorn bara har 200.

 

Tyvärr klarar inte MBI att tillverka en starkare motor, för de gör egentligen gräsklipparmotorer, och det tjänar de mer på än bilmotorer (! :D ).

 

Visserligen är MBI-motorn bättre, med 33 hästar per cylinder, mot Letni-motorns 30, men Letni-motorns högre totaleffekt slår ändå ut MBI. Dessutom är Letni-motorn byggd så att det finns utrymme att trimma den, så nya modeller i framtiden kan ha ännu högre effekt.

 

Vilken köper du?

Den som är bäst på pappret, eller den som är bäst i verkligheten?

 

:D

Länk till kommentar
Dela på andra webbplatser

Vi säger så här...

 

Du ska köpa en bil. Som de flesta andra bilköpare, så vill du ha bilen som ger dig bäst prestanda, utan att den kostar mer - helst ska den kosta mindre än den sämre bilen.

 

Den ena drivs av en 6-cylindrig MBI-motor, och den andra av en 8-cylindrig Letni-motor. Letni-motorn har 240 hästar, medan MBI-motorn bara har 200.

 

Tyvärr klarar inte MBI att tillverka en starkare motor, för de gör egentligen gräsklipparmotorer, och det tjänar de mer på än bilmotorer (! :D ).

 

Visserligen är MBI-motorn bättre, med 33 hästar per cylinder, mot Letni-motorns 30, men Letni-motorns högre totaleffekt slår ändå ut MBI. Dessutom är Letni-motorn byggd så att det finns utrymme att trimma den, så nya modeller i framtiden kan ha ännu högre effekt.

 

Vilken köper du?

Den som är bäst på pappret, eller den som är bäst i verkligheten?

 

:D

160556[/snapback]

 

Jo det är en bra jämförelse (smart att vända på företags namnen också ;)

Men tyvärr är inte heller det riktigt sant, Apple skulle ha klarat sig på IBMs processorer, som jag sa itidigare inlägg det handlar inte om PowerPC vs Intel själva switchen, det handlar förmodligen mest om att Apple har planerat att försöka konkurrera med microsoft på allvar.

Länk till kommentar
Dela på andra webbplatser

Äh, ville bara driva lite med hela diskussionen.

Det viktigaste är ju faktiskt att datorn fungerar som önskat, har tillräckligt bra prestanda, och inte kostar en mindre förmögenhet. Vad som sen sitter i burken spelar mindre roll. I alla fall för mig.

Länk till kommentar
Dela på andra webbplatser

Arkiverat

Det här ämnet är nu arkiverat och är stängt för ytterligare svar.




×
×
  • Skapa nytt...