Ubuntu fegar bort hälften av hårdvaran

2016-10-01

Flera cpu:er lediga, massor av minne, swap finns där så det räcker mer än 1000 ggr behovet mer än realiserat i värsta fall tänkbart, ingen användar-aktivitet i övrigt, tämligen lugnt i allt ej inducerat OS som ej av konsekvens särskilda processer startade av mig, endast en perl tolk körande i princip vektor-algebra (säg cirka 50 000 - 70 000 vektorer a 400 positioner var och en ungefär en Perl "double-64-bitar").


Några kontroller - ett par - manuellt per timme via top visar ingen systematisk aktivitet motsvarande ens i närheten systemunderhåll. Väldigt lugnt tvärt om. Som jag vant mig förvänta av såväl Ubuntu förra versionen jag hade installerad (vilken kan ha varit 11.något).


Och min process kör nice 0 som omväxling. Det ger cirka 30 - 40% sämre output jämfört med 19 som jag normalt genomgående kör topp-process med om den belastar särskilt CPU men även värderande in trots att jag kan se hur man lätt lurar sig disk-aktivitet (d.v.s. det finns att hämta där också även om det trivialt ej verkar så: Men utanför jämförelsen här inkluderande också manipulation ett fåtal processer OS som har med montering att göra - Principiellt ska det ej heller där ha betydelse mer ger flera procent-enheter sett över någon vecka men tänkbart en disk ingenting dock lätt spekulativt vad det egentligen kommer av givet hur disk-borta nice-lever i grunden totalt är).


Jag drar upp nice 19. Och det är ej så att jag nu lika lite som annars behöver sätta mig och vänta en timme eller en vecka för att se någon diffus-skillnad. Utan bara status print skärmen går direkt upp till upplevt dubbla skillnaden (men mer gediget normalt förväntar jag cirka 40% mer i resultat per tidsenhet).


Skillnaden är bara hårdvara Ubuntu kastar bort om jag inte manuellt går in och ställer om nice.


Nice på min förra Ubuntu kodade jag om diverse själv för. Bland det unikt ensamma (jag tror närmast det - något enstaka i övrigt genom alla år) jag någonsin gjort det för. Ty nice annars åtminstone min installation var mer eller mindre defunct. Om jag orkat läst vad det nu var för kod innan min goto kom skulle jag gissa att det visat att det hela praktiskt gjorde ingenting. Också samma koncept-förändring (samma mini-timmes projekt egentligen) reducerande engagemang och ansvar OS rörande hur processer lades ut på CPU:er. Det bästa då (osäker Ubuntu version jag kör nu vilken jag fick från en CD med tidning köpt butik i somras då allt OS gått sönder multipla datorer varierat just OS resp. hårdvara under några månader - den var i princip sista då) var att när viktigt att ta ut mesta möjliga att manuellt lägga dem på egna (jag vill skriva mini-kernel-cpu men det är ej rätt ord riktigt men oavsett hur rätt det låter härefter är det ej riktigt heller vad som egentligen tror jag riktigt sker i hårdvaran oavsett hur det ser ut ovanför) cpu:er resp. per process så långt som möjligt, och så jämnt för här antaget (alltid normalt aktuellt för mig) jämförbara i belastning och funktion processer antal per processor. Lär man Ubuntu sköta om det satt i stora chunk av hårdvaran helt oanvänd och gjorde ingenting medan ex. top felrapporterade (helt uppenbart vill jag förstå det) diverse annat (cpu kärnor) som använt 100% hela tiden (jag är osäker här var 100% kommer ifrån? Jag tvivlar som på att det kommer ifrån åtminstone vettigt gjort förfrågningar riktat mot resp. kärna och någon skattning därifrån givet något algoritmiskt hanterande hur OS i övrigt fungerar skapande skattning användning - och själva hårdvaran tror jag inte ens konceptuellt själv kan rapportera eller förstå det här: Mer att den kan fördela med viss vetskap eller rapportera något fritt men ej i hård-belastning göra resp. trovärdigt därför att göra det senare trovärdigt kräver att man slutar hantera det första tillräckligt effektivt medan vi utanför sådana situationer inte bryr oss i det här alls. Men så klart att kanske lite särskild hårdvara med lite vetskap i statistik rörande hur enstaka förfrågningar ska tolkas givet historik kan klara det lika bra eller bättre än samma i OS).


Det är tycker jag verkligen ingen små-sak att bara default kasta bort så mycket av hela investeringen dator. Det är ju massor. Vi kan dra upp användningen och krävande explicit och få ut vad vi betalade för. Men i allt som ej går ut i annat än ren cpu i sig ges minsta tänkbara cpu också utan hänsyn vad som finns att ge.


Är det något relaterat Ubuntu normal vs server givet något koncept tänk den senare rörande affärer? Eller bara något fel balanserat hålla redundans diverse "oväntat" som abnormt stora program-starter av dåligt kodade ej ovanliga användar-applikationer? Star Office alltid såväl Sun som open-source är ju ex. mer eller mindre defunct så fort den ska starta en fel större än några hundra MB. Emacs tar några sekunder inklusive
modes för CVS. Läser jag den själv ej hårt i C med särskild prioritet utan bara något snabbare ad-hoc programmerings-skal längre upp som Perl tar det några sekunder. Kopierande fönster till fönster motsvarande mellan ex. Emacs tar föga kraft, från Emacs till Star Office och båda går gärna evighets-tysta (d.v.s. tar det mer än ett par minuter här förtjänar det inte att användas alls därefter men jag har väntat sådant här mer än tio minuter några gånger - Riktigt sunkigt programmerat - lite av det Matlab-matristänk som får folk publicerande sina resultat att skriva saker som bara får mig att direkt förstå att de sitter på ungefär en grid av kanske troligast just från Sun deras universitet köpt in och de därefter om lämnande universitet allra troligast relativt centralitet hårdvara aldrig kommer komma i närheten av igen - lite på temat: Jag gör sådant med fem rader Matlab över mina 100 000 x 100 000 matriser med någon standard-algoritm Matlab pulat samman utan att ens ha övervakning på sista resultaten alg-tweeks som publicerats sista månaderna - Viktigare att kommentera mina fem rader här än att ens bry mig att välja Matlab-alg. bland några upp till 15 år gamla ok men små slöa alternativ - en stund senare och ej en månad har jag lite ofta ganska sunkiga resultat jag gärna kommenterar ännu mer om och som närmast unikt i gruppen datavetenskap, fysik, teknisk databehandling, biologi & medicin - som grova grupper - om i datavetenskap sätter mig och ändrar om lite så att den för mig precis som alla andra publicerande något här slår allt annat välkänt en ytlig litteratur-sökning hittar: Det märker nog ingen < - De gör det närmast regelmässigt datavetenskap och inte ens - en välsignelse för grov-filtrering - bra, mycket på "temat" att göra sitt held-back resp. test-data handskapat tills levererande kombinerat lätt berättande kanske om människan allmänt med något lite underligt över-fokus på ren trivialitet resultat lätt att förklara: Jag brukar inte ringa upp dem i USA, Indien, UK, dagen innan någon rent symbolisk redovisning och skrika till dem att datafusket inte bara falerar det utan numera är brottsligt och här tolkat som terrorism misstänkt för att ha med ISIS att göra - Men jag kan se hur jag skulle kunna som yngre tyckt att det var kul om jag då haft större motivation att göra något själv för att roas).


Så Ubuntu om inte hellre köpande cirka 1.5 dator per 1 st. Ubuntu-dator kräver att man sätter sina processer manuellt till nice-lever oavsett hur fullständigt oanvänt över långa tidsperioder pågående hårdvara, diskar, och allt vad processer heter i övrigt. Tråkigt att sådana här goda indikationer på att mervärde finns att få inte kommer med att jag kan köpa en molntjänst från Ubuntu till det hela. Givet all oanvänd bandbredd jag ej betvivlar finns alla möjliga tidpunkter runt om dygnet när manuellt surfande saknas betvivlar jag inte att det skulle bespara mig tiden att trycka r i top och skriva -19.

Inga kommentarer:

Skicka en kommentar