6. Multicore Programming
Ved å legge til flere prosesskjerner har det oppstått som den primære måten å øke ytelsen til server- og PC-chips, men fordelene vil bli sterkt redusert dersom næringen ikke kan overvinne visse maskinvare- og programmeringsutfordringer, deltakere på Multicore Expo i Santa Clara, California, sa denne uken.
De fleste programvare i dag er fortsatt skrevet for single-core-chips og må omskrives eller oppdateres for å utnytte det økende antallet kjerner som Intel, Sun Microsystems og andre chipmakere legger til deres produkter, sier Linley Gwennap, president og hovedanalytiker ved The Linley Group.
Programmer på hyllen vil ofte kjøre raskere på CPUer med opptil fire prosessorkjerner, men utover denne ytelsen nivåer av og kan til og med forverres etter hvert som flere kjerner blir lagt til, sa han. En nylig rapport fra Gartner fremhevet også problemet.
Chip beslutningstakere og systembyggere har begynt å utdanne utviklere og gi dem bedre verktøy for multicore programmering. For et år siden sa Intel og Microsoft at de ville investere US $ 20 millioner for å åpne to forsknings sentre ved amerikanske universiteter viet til å takle problemet. Mangelen på multicore programmeringsverktøy for vanlige utviklere er kanskje den største utfordringen bransjen står overfor i dag, sier Gwennap.
Skrive programmer på en måte som lar ulike deler av en databehandling, for eksempel å løse et matematisk problem eller gi et bilde, deles opp og utføres samtidig på tvers av flere kjerner er ikke nytt. Men denne modellen, ofte kalt parallell databehandling, har vært begrenset så langt hovedsakelig til spesialiserte, høyytende databehandlingsmiljøer.
Men i de senere år har Intel og Advanced Micro Devices vært å legge til kjerner som en mer energieffektiv måte å øke chip ytelse, en markert forandring fra sin tradisjonelle praksis med å øke klokkehastigheten. Intel bygger åtte kjerner i sine kommende Nehalem-EX-sjetonger, og AMD designer 12-kjerne chips for servere. De legger også til multi-threading-funksjoner, som tillater at hver av kjernene fungerer på flere linjer med kode samtidig.
Det betyr at vanlige applikasjoner må skrives på en annen måte for å utnytte de ytterligere kjernene som er tilgjengelige. Arbeidet er vanskelig å gjøre og skaper potensialet for nye typer for programvarebugs. En av de vanligste er "løpevilkår", hvor utgangen av en beregning avhenger av de forskjellige elementene i en oppgave som blir fullført i en bestemt rekkefølge. Hvis ikke, kan det oppstå feil.
Noen parallelle programmeringsverktøy er tilgjengelige, som Intels parallelle studio for C og C ++. Andre leverandører i rommet er Codeplay, Polycore Software og Clik Arts. Det er også en ny C-basert parallell programmeringsmodell kalt OpenCL, utviklet av The Khronos Group og støttet av Apple, Intel, AMD, Nvidia og andre. Men mange av de tilgjengelige verktøyene er fortsatt på gang, deltakere på Multicore Expo sa. Programvarekompilatorer må kunne identifisere kode som kan parallelliseres, og deretter jobbe med å parallellisere den uten manuell inngrep fra programmerere, sa Shay Gal-on, direktør for programvareingeniør ved EEMBC, en ideell organisasjon som utvikler benchmarks for embedded chips.
Til tross for mangel på verktøy, har noen programvareleverandører funnet det relativt enkelt å lage parallellkode for enkle databehandlingsjobber, for eksempel bilde- og videobehandling, sa Gwennapp. Adobe har omskrevet Photoshop på en måte som kan tilordne oppgaver som forstørrelse og bildefiltrering til bestemte x86-kjerner, og forbedrer ytelsen med tre til fire ganger, sier han.
"Hvis du gjør video eller grafikk, kan du ta forskjellige sett med piksler og tilordne dem til forskjellige CPUer. Du kan få mye parallellitet på den måten, "sa han. Men for mer komplekse oppgaver er det vanskelig å finne en enkelt tilnærming for å identifisere en sekvens av beregninger som kan parallelliseres og deretter dele dem opp.
Mens programmeringssiden kan presentere den største utfordringen, er det også maskinvareendringer som må gjøres for å overvinne problemer som minneforsinkelse og sakte busshastighet. "Når du legger til flere og flere CPUer på brikken, trenger du minnebåndbredden for å sikkerhetskopiere den," sier Gwennap.
Deling av en enkelt minnebuffer eller databuss mellom flere kjerner kan skape en flaskehals, noe som betyr at ekstra kjerner vil være i stor grad bortkastet. "Når du kommer til seks eller åtte CPUer, bruker de hele tiden til å snakke med hverandre og ikke går videre for å få noe arbeid," sa han.
Onus kan til slutt ligge med utviklere for å bygge bro over gapet mellom maskinvare og programvare for å skrive bedre parallelle programmer. Mange kodere er ikke opp til hastighet på de siste utviklingene i maskinvaredesign, sier Gal-on. De bør åpne opp dataark og studere chiparkitekturer for å forstå hvordan deres kode kan fungere bedre, sa han.
Lenovos supersvelte IdeaPad U110 er omtrent like prangende som ultraportable bærbare datamaskiner, og den stilige ultraportable luftkonkurrenten går ut av ThinkPads skygge. . Et sted mellom brannmotorens røde, laser-etste deksel og det robuste gummibaserte grunnlaget, utgjør U110 seg selv som en Bonafide MacBook Air-rival.
Denne IdeaPad veier 2,9 pounds med sjubatteriet på plass. Den måler 10,8 tommer med 7,7 tommer med 0,72 tommer, og for en ultraportabel pakker den en rimelig mengde strøm under hetten: En 1,6 GHz Intel L7500 Core 2 Duo CPU og 2 GB RAM hjelper U110 til å kjøre litt raskere enn Apples Air . I våre WorldBench-tester scoret U110 i midten av pakken med en poengsum på 65 versus den tynne og lette MacBook saktere 57.
Multifunksjonsenheter utgjør Skatt Hodepine for EU-beslutningstakere
Forskjellen mellom en skriver og en kopimaskin eller en telefon fra en TV i Europa kan påvirke plikten belastet.
HPs storslagne rykte har gått i løpet av de siste årene blant både forretnings- og forbrukerkunder, så neste leder har en utfordring. Nå som Mark Hurd har "trukket seg" som administrerende direktør i Hewlett Packard, har verdens største PC-produsent en utmerket mulighet til å styrke et forretningsområde som har lidd de siste årene: Produktkvalitet og ettersalgsservice.
Under Hurds regel, gikk HP alltid dårlig i PCWorlds pålitelighets- og serviceundersøkelser. For eksempel, i fjor hevdet vi 45.000 PCWorld.com-lesere, og ba dem om å vurdere kvaliteten og servicen til store datamaskiner, kameraer, skrivere og HDTV-leverandører. HPs resultater var spesielt dårlige i bærbare, desktop og skriverkategorier - akkurat som de hadde vært i tidligere undersøkelser.