Extremscenariot för spel är väl när det släpps någon större patch. Har varit med om att behöva tanka in en nysläppt patch, 12 GB per dator på ett LAN, det gick inte direkt fort att komma igång den gången (tror vi hade 300 Mbit/s extern anslutning). Som mest har vi haft 16 datorer i en lägenhet men det händer bara någon gång per år...
 
ghoti skrev:
Extremscenariot för spel är väl när det släpps någon större patch. Har varit med om att behöva tanka in en nysläppt patch, 12 GB per dator på ett LAN, det gick inte direkt fort att komma igång den gången (tror vi hade 300 Mbit/s extern anslutning). Som mest har vi haft 16 datorer i en lägenhet men det händer bara någon gång per år...
Det är därför t.ex Microsoft kan distribuera sin SW via P2P. En användare laddar ner SW och flera andra på samma LAN kan dela mellan varandra.
T.ex Vuze kan också köra p2p på ett LAN för snabb distribution av SW.

Det finns andra leverantör av p2p SW som används inom företagsnät för bl.a distribution av SW. Flera tusen användare kan uppgraderas på ett par dagar i stället för några veckor.
 
MathiasS skrev:
....men om du tittar på statistiken från routern, hur ofta maxar du dessa 100/10?
Med det argumentet behöver man inte ha en bil som går snabbare än 50, eftersom genomsnittshastigheten ändå är mycket lägre än så.

Poängen med hastigheten är ju just att man inte ska behöva maxa den. För när man maxar den så blir den flaskhals.
 
vespaman skrev:
För att konkretisera frågan, så undrar jag alltså om det finns någon kommande internetanslutningsstandard. 10Gbit LAN är ju tämlingen standardiserat.

Men det kanske inte har utkristalliserats någon definitiv "nästa nivå"? Hur är det tex i kalifornien osv?
Tja, alltså, det finns ju ingen teknisk "internetanslutningsstandard" som sådan. Inom tele/data-kom branschen så har man kommit överens om en massa olika fiberstandarder för ökande hastigheter, men eftersom ingen av dessa termineras hos dig, så spelar de mindre roll. Du har ju ett annat gränssnitt ut från din fiber-converter/CPE, typiskt WLAN och koppar-baserat ethernet så vad man har in i burken spelar mindre roll. (Det finns och används redan ett par olika fiber-standarder för det). Så nästa "steg" är som andra sagt 10Gbps (2.5 och 5 är äldre standarder), steget efter det är 40Gbps, osv. osv.

Men det interface du har ut nu är 1Gbps max, och därmed kan vi räkna med att 1Gbps kommer att vara förhärskande över lång tid framåt. 10Gbps över koppar är som sagt en krångligare historia (man fick ju "fuska" redan för att få till 1Gbps genom att ta alla par i bruk), och har ännu inte blivit standard. Dvs, du kan ju idag inte köpa en dator/moderkort el dylikt som inte har en 1Gbps ethernet transciever (det finns inga dedicerade 100Mbps transcievrar kvar på marknaden), men du kan på samma sätt knappast hitta någon 10Gbps dito till salu. Och ser vi historiskt så ligger longhaul alltid efter short haul. Först datacenter (dessa är 10Gbps nu), sedan "alla andra" (och short haul) och sist long haul. Ja, alltså long haul till kund.

Så vi har många år kvar innan "nästa steg" ens kommer på tanke. Om det någonsin gör det. Problemet med att förutsäga teknikutveckling är att mitten på en sigmoidkurva ser exakt likadan ut som en exponentialkurva (iaf om man kisar), och det är lätt att fastna i tron att utvecklingen kommer att fortsätta i samma allt mera accelererande tempo. Så sker dock "aldrig", utan man når förr eller senare tak och gränser som gör att teknikutvecklingen mattas av, för att sedan till sist stanna av.

Jag kan inte se att vi kommer att rutinmässigt "göra av" med ens 1Gbps till hemmet under överskådlig tid. Det stora som har hänt vad gäller bandbredd är video+ljud. Och vi börjar där redan slå i taket vad gäller medelkonsumentens syn+hörsel. Att leverera mycket mer än det blir svårt att få att slå igenom, eftersom få antagligen kommer att vilja betala för de apparater som man ändå inte kan dra full nytta av. Så jag tror (och det är med betoning på "tror") att mycket mer än en dubbling av upplösningen från HD idag, en dubbling av uppdateringsfrekvensen, och kanske en liten ökning av färgdjupet det kommer vi inte att se. Ja, dvs, effektivt sett. (Att sedan folk kanske kommer att ha 4k skärmar, det är en annan sak). Även med dessa prestanda och med nuvarande kodningsteknik så kommer vi ändå inte upp i mer än 100 Mbps per ström. Och mycket mer än 4-5-6 strömmar per hushåll tror jag inte vi kommer att se heller. Så för den tillämpningen så räcker ju 1Gbps mer.

Sedan har vi de som sagt att exv. spelpatchar osv. viss kan använda mer bandbredd. Och visst, så är det. Men, om alla sitter bakom en 1Gbps lina så tror jag att vi kommer att se mer av on-line interaktion där materialet alltså inte laddas ner förrän on-demand och då i mera färdigt format. Då behöver heller inte mer än 1Gbps, och man kommer till rätta med andra "problem" s.s. piratkopiering av spel m.m. Så det är inte säkert att exv. en sådan tillämpning som spel med nödvändighet kommer att driva snabbare linor och större hårddiskar. Det kan lika gärna gå åt andra hållet. Den som lever får se.

Så, det är ju alltid svårt, men iofs också kul, att sia om vad framtiden bär. Jag tycker mig dock börja skönja avflackningen på sigmoid-kurvan inom många områden som har med datorer och databehandling att göra, så jag skulle inte bli förvånad om vi kommer att börja se stagnerande tillväxt vad gäller prestandaparametrar. Mao, "this is as good as it (almost) gets."
 
  • Gilla
vespaman och 1 till
  • Laddar…
Nerre skrev:
Med det argumentet behöver man inte ha en bil som går snabbare än 50, eftersom genomsnittshastigheten ändå är mycket lägre än så.

Poängen med hastigheten är ju just att man inte ska behöva maxa den. För när man maxar den så blir den flaskhals.
Näe, det var inte det jag bad dig kolla. Frågan är hur ofta du har en peak rate som faktiskt når (och skulle överstiga) 100Mbit? Att snittet över en månad är lägre är uppenbart men som du säger, inte relevant.
 
Jag kan inte se det, jag kan bara se trafikmängd per dygn och månad. Ok, jag kan se realtidsgraf också, men den kan jag ju inte sitta och glo på i väntan på att det ska bli en topp. Får väl försöka ta en skärmdump nån kväll när hela familjen sitter och kollar på varsit streamat program.

Däremot vet jag att när vi hade ADSL så råkade vi ofta ut för att det tjocknade till. Men då var ungarna så små och använda inte internet så mycket. Visst hade vi kanske klarat oss med 10 Mbit/s på fibern.
 
pelpet skrev:
Strävan är att se till att användaren blir flaskhalsen. Då är systemet optimerat.
Du har naturligtvis rätt. Men lite dystert att vi strävar mot att bli flaskhalsar.... :) Det var inte så man drömde om att "bli" när när man var barn..
 
lars_stefan_axelsson skrev:
Så, det är ju alltid svårt, men iofs också kul, att sia om vad framtiden bär. Jag tycker mig dock börja skönja avflackningen på sigmoid-kurvan inom många områden som har med datorer och databehandling att göra, så jag skulle inte bli förvånad om vi kommer att börja se stagnerande tillväxt vad gäller prestandaparametrar. Mao, "this is as good as it (almost) gets."

Jo, så kan det vara. Som du säger, det är svårt att förutsäga teknikutveckling, ibland träffar man rätt, och lika ofta fel. Personligen tror jag inte att vi är nära slutet för konsumentmarknaden med 1Gb. Några snäpp till blir det nog om jag får gissa.
Finns tekniken, så tror jag att den kommer att bli billigare tills dess att den passar privatmarknaden. Därmed inte sagt att alla kommer att behöva detta, eller vara intresserade av detta. Och kanske tar det en herrejösses massa år. Men den finns där för folk som kommer att jobba mer hemma och ladda filer som blir större och större. Japan har ju redan kört ut testsändningar på 8K, för eller senare kommer 4k att anses förlegat.
Fast detta med strömmande data är egentligen inte något bra mätvärde, för dom som levererar detta kommer förmodligen se till så att datahastigheten anpassar sig till vad som står tillbuds, precis som idag. Netflix 4k är ju inte precis banbrytande. Samtidigt så tror jag att så länge det finns tex bluray UHD med bättre kvarlitet, så kommer piratkopieringen inte att avta. Precis som musikindustrin, där man idag kan köpa eller streama i bra kvalitet; folk har i allmänhet inget emot att betala för kvalitet.
 
lars_stefan_axelsson skrev:
Mao, "this is as good as it (almost) gets."
Detta inlägg ska jag skriva ut och åka till dig med, om 15 år eller så. Har du rätt äter jag upp det, har du fel äter du upp det. Jag tror det är helt riskfritt för mig.
 
D
MathiasS skrev:
Detta inlägg ska jag skriva ut och åka till dig med, om 15 år eller så. Har du rätt äter jag upp det, har du fel äter du upp det. Jag tror det är helt riskfritt för mig.
Det kommer antagligen vara riskfritt för er båda eftersom det finns så många olika sätt att tolka utvecklingen på. Titta 15 år tillbaka och se hur datorerna har utvecklat sig sedan dess? I princip inte alls.... De har blivit snabbare, lite bättre upplösning osv, men i principiellt är det inte mycket som skiljer sig från 15 år tillbaka.

Den som hävdar att det har skett stor förändring kommer att trycka på att allt blivit mycket snabbare, bättre, mindre osv. Den som hävdar att det hela stagnerat kommer visa på hur operativsystemen knappt har rört sig på 15 år, hur användargränssnittet knappt har utvecklats osv.

Så jag ser båda som vinnare...
 
  • Gilla
lars_stefan_axelsson
  • Laddar…
petersv skrev:
Jag förstår inte det här med att behovet inte finns. Det är klart trevligare att arbeta hemifrån med 1Gbit/s än 100Mbit/s. På jobbet är 2Gbit/s bättre än 1Gbit/s.

Även privat är det trevligare med mer hastighet. Varför vill man vänta på att ladda ner något? Området är matat med 40Gbit/s, varför inte kunna bursta med 10 Gbit/s?
Vad har du för utrustning som klarar skicka eller ta emot med 10Gbit/s i hemmet ;)
När du jämför med jobbet, betänk då att vissa operatörer prioriterar företagstrafik högre än konsumenttrafik när du lämnar accessnäten.
 
DIY_freak skrev:
Titta 15 år tillbaka och se hur datorerna har utvecklat sig sedan dess? I princip inte alls.... De har blivit snabbare, lite bättre upplösning osv, men i principiellt är det inte mycket som skiljer sig från 15 år tillbaka.
Grunden för hur en dator fungerar har ju varit lika sen 50-talet ungefär. Det är ju förfinandet som stått för utvecklingen.

För 15 år sen kom Intel med sin första 64-bitars processor. År 2000 kom USB 2.0, så för 15 år sen hade de flesta datorer som bäst USB 1.1 (som inte klarade mer är 12 Mbit/s, inget att köra USB-anslutna hårddiskar på alltså).

För 15 år sen fanns inte SATA heller, vi fick krångla med IDE eller SCSI alltså.

För 15 år sen var väl plattskärmar inte heller särskilt vanligt annat än på laptops? Och hur mobiltelefonerna (som ju också de är en slags datorer) såg ut för 15 år sen ska vi inte tala om... 2001 kom första mobilerna med GPRS. iPhone kom inte förrän 2007.

Varken Facebook eller LinkedIn fanns för 15 år sen, Youtube startade 2005.

Och då har jag ännu inte börjat rota i t.ex. datorers elförbrukning (för 15 år sen drog väl en genomsnittlig PC ett par hundra watt, idag ligger de flesta standard-PC under 50 W).
 
10 Gbit/s är inte något jag har idag, men ca 2Gbit/s går ju bra att använda. Något ska väl hända framöver också tycker jag.
 
Jag har faktiskt en switch hemma som klarar 10 Gbit..

Fast jag måste säga att det är väldigt mycket fokus på bandbredden på accessen när man pratar om internetanslutningar. Det är inte fel att titta på bandbredden, men när det gäller prestanda på olika former av applikationer så finns det många fler faktorer som ofta är lika viktiga. T.ex. så är latensen ofta starkt påverkande, samt vilken utrustning man använder. Vill man t.ex. få aftonbladet.se att ladda snabbare? Slå på annonsblockering - det är mycket viktigare än bandbredd. Vill man kunna köra bittorrent störningsfritt? Se till att bredbandsroutern är av bra modell så att den klarar flera tusen TCP-uppkopplingar. Och maxhastigheten på ett mobilt bredband spelar ofta inte heller så stor roll. Det är väldigt ofta som mobilnätstäckningen eller mobilens förmåga att rendera det mottagna datat är flaskhalsen.
 
D
Det kördes många USB-anslutna hårddiskar på USB 2.0. Antagligen fler än som körs på 3.0, eftersom det fortfarande inte är speciellt vanligt att köra hårddiskar via USB, eftersom det finns bättre standarder för det. För övrigt är USB 1.1, 2.0 eller 3.0 en pytteliten utveckling för de flesta då den vanligaste användningen för USB ändå var långsamma enheter som möss och tangentbord. För övrigt fanns det andra standarder som t.ex. PCMCIA som gjorde liknande insatser som USB gör nu idag i de högre hastigheterna (CardBus/PCMCIA 5.0 som itroducerades 1995 hade ju överföringshastighet upp till 132 MB/s, helt i klass med dagens behov). Så USB 2.0 var ingen speciell begränsning för 15 år sedan.

SATA eller IDE spelar ju ingen som helst roll för de allra flesta användare. De flesta ser aldrig en hårddisk och behöver ännu mindre bry sig om hur den är ansluten internt i datorn. För övrigt ser jag inte att det är någon väldig förbättring rent användarmässigt mellan SATA och IDE. Tvärtom har ju SATA blivit lite förvirrat när det gäller strömförsörjningen...

Flatscreen skärmar var mycket vanliga för 15 år sedan, så där har du helt fel. Naturligtvis var de flesta mindre och med lägre pixeldensitet. År 2003 såldes det till och med fler plattskärmar än tjockskärmar, så det visar ju att plattskärmarna inte precis var ovanliga för 15 år sedan, då du säkert kommer ihåg att det inte var någon omedelbar teknikövergång, pga kostnadsläget. Men redan runt 1997 så började plattskärmarna bli populära.

Facebook, LinkedIn och YouTube ligger på tjänstesidan och omfattas inte av den här diskussionen. Men det finns inget revolutionerande med Facebook, LinkedIn eller YouTube. Redan på 1980-talet fanns det BBSer och usenet. Naturligtvis var penetrationen lägre eftersom datortätheten var lägre, men informationsutbytet var tämligen fritt flödande även på 1980-talet bland de som hade datorer och var intresserade av det.

Elförbrukning anser jag inte vara speciellt intressant i detta sammanhang, men de flesta datorer drog ingalunda ett par hundra watt och ännu mindre låg genomsnittet på det, speciellt de som använde plattskärmar. Du blandar ihop det med vad nätaggregaten hade för max-rating, som var en vanlig "märkning" på den tiden. Det betyder ju inte att bara för att de flesta hade nätaggregat som klarade av att leverera ett par hundra watt, verkligen förbrukade så mycket. För övrigt så stängde man på den tiden av de flesta datorer när man inte använde dem, så de flesta drog 0 W när de inte användes. Något som man inte klarar av i dagsläget... ;) Nu finns det NAS, switchar, routrar osv som är påslagna 24-7 lite varstans i hemmen. Där har tekniken gått bakåt.

Men allt du säger bara understryker det jag säger... Båda parterna Mathias resp LSA kommer troligen med gott fog kunna försvara sina ståndpunkter om hur utvecklingen har varit. Det är ju det jag säger. Vissa kommer att påstå att jämfört med 15 år bakåt så har utvecklingen gått framåt otroligt, medan andra tycker att den inte gjort det utan mest varit skrap på ytan.
 
Redigerat av moderator:
Vi vill skicka notiser för ämnen du bevakar och händelser som berör dig.