- Door
- Randy ten Have
- geplaatst op
- 5 november 2008 08:01 uur
De Internet Engineering Task Force (IETF) heeft tijdens haar 72ste meeting in Dublin besloten om een protocol te ontwikkelen waarmee uitwisseling van data via Peer-to-Peer (P2P) applicaties geoptimaliseerd wordt. Inmiddels hebben de eerste grote prividers dit protocol getest. De resultaten zijn veelbelovend. Voor de eindgebruiker kan de snelheid toenemen met 80% terwijl voor de provider het verkeer dat over exchanges gaat – of duurder: transits – ontzettend afneemt.
Bij het traditionele P2P protocol wordt niet gekeken naar de locatie van de beschikbare content. Zo kan het zijn dat een klant die Bittorrent gebruikt om een nieuwe linux distributie te downloaden data ophaalt aan de andere kant van de wereld, terwijl het in het buurland ook beschikbaar zou zijn. Het P4P protocol moet hierin verbeteringen brengen door onder andere te kijken naar afstand, snelheid en beschikbaarheid binnen het lokale netwerk.
Providers zullen dit omarmen omdat zij de kosten door het relatief dure transitverkeer kunnen terugbrengen. Eindgebruikers halen de data dichter bij huis weg, bij voorkeur binnen hetzelfde netwerk of via de aanwezige exchanges, waardoor de snelheid in een test van Comcast kan toenemen met 80%. Eerder al hield Verizon een soortgelijke test waarbij de snelheden vor eindgebruikers ontzettend opliepen, terwijl de kosten voor dataverkeer voor de provider afnam.
De ontwikkeling van het nieuwe protocol lijkt zowel voor providers als eindgebruikers een win-win situatie op te leveren. Toch kleeft er nog 1 (juridisch) nadeel: Er wordt gebruik gemaakt van een lokale tracker die gehuisvest staat bij de provider. Deze indexeerd de aanwezige data binnen haar eigen netwerk en de data die via ‘goedkope’ netwerken beschikbaar is. Voor providers zou het technisch altijd te achterhalen zijn wie, wat en wanneer een bestand download. Vooralsnog lijkt het echter de enige goede optie tegen afknijpen van dataverkeer, omdat de netneutraliteit wel gewaarborgd is.