source: trunk/libtransmission/peer-io.c @ 11915

Last change on this file since 11915 was 11915, checked in by jch, 11 years ago

Don't call UTP_Close multiple times.

Greg says it's evil.

  • Property svn:keywords set to Date Rev Author Id
File size: 30.4 KB
Line 
1/*
2 * This file Copyright (C) Mnemosyne LLC
3 *
4 * This file is licensed by the GPL version 2. Works owned by the
5 * Transmission project are granted a special exemption to clause 2(b)
6 * so that the bulk of its code can remain under the MIT license.
7 * This exemption does not extend to derived works not owned by
8 * the Transmission project.
9 *
10 * $Id: peer-io.c 11915 2011-02-18 00:24:36Z jch $
11 */
12
13#include <assert.h>
14#include <errno.h>
15#include <limits.h> /* INT_MAX */
16#include <string.h>
17#include <stdio.h>
18#include <unistd.h>
19
20#ifdef WIN32
21 #include <winsock2.h>
22#else
23 #include <arpa/inet.h> /* inet_ntoa */
24#endif
25
26#include <event2/event.h>
27#include <event2/bufferevent.h>
28#include "utp.h"
29
30#include "transmission.h"
31#include "session.h"
32#include "bandwidth.h"
33#include "crypto.h"
34#include "list.h"
35#include "net.h"
36#include "peer-common.h" /* MAX_BLOCK_SIZE */
37#include "peer-io.h"
38#include "trevent.h" /* tr_runInEventThread() */
39#include "utils.h"
40
41#define MAGIC_NUMBER 206745
42
43#ifdef WIN32
44 #define EAGAIN       WSAEWOULDBLOCK
45 #define EINTR        WSAEINTR
46 #define EINPROGRESS  WSAEINPROGRESS
47 #define EPIPE        WSAECONNRESET
48#endif
49
50static size_t
51guessPacketOverhead( size_t d )
52{
53    /**
54     * http://sd.wareonearth.com/~phil/net/overhead/
55     *
56     * TCP over Ethernet:
57     * Assuming no header compression (e.g. not PPP)
58     * Add 20 IPv4 header or 40 IPv6 header (no options)
59     * Add 20 TCP header
60     * Add 12 bytes optional TCP timestamps
61     * Max TCP Payload data rates over ethernet are thus:
62     *  (1500-40)/(38+1500) = 94.9285 %  IPv4, minimal headers
63     *  (1500-52)/(38+1500) = 94.1482 %  IPv4, TCP timestamps
64     *  (1500-52)/(42+1500) = 93.9040 %  802.1q, IPv4, TCP timestamps
65     *  (1500-60)/(38+1500) = 93.6281 %  IPv6, minimal headers
66     *  (1500-72)/(38+1500) = 92.8479 %  IPv6, TCP timestamps
67     *  (1500-72)/(42+1500) = 92.6070 %  802.1q, IPv6, ICP timestamps
68     */
69    const double assumed_payload_data_rate = 94.0;
70
71    return (unsigned int)( d * ( 100.0 / assumed_payload_data_rate ) - d );
72}
73
74/**
75***
76**/
77
78#define dbgmsg( io, ... ) \
79    do { \
80        if( tr_deepLoggingIsActive( ) ) \
81            tr_deepLog( __FILE__, __LINE__, tr_peerIoGetAddrStr( io ), __VA_ARGS__ ); \
82    } while( 0 )
83
84struct tr_datatype
85{
86    tr_bool  isPieceData;
87    size_t   length;
88};
89
90
91/***
92****
93***/
94
95static void
96didWriteWrapper( tr_peerIo * io, unsigned int bytes_transferred )
97{
98     while( bytes_transferred && tr_isPeerIo( io ) )
99     {
100        struct tr_datatype * next = io->outbuf_datatypes->data;
101
102        const unsigned int payload = MIN( next->length, bytes_transferred );
103        const unsigned int overhead = guessPacketOverhead( payload );
104        const uint64_t now = tr_sessionGetTimeMsec( io->session );
105
106        tr_bandwidthUsed( &io->bandwidth, TR_UP, payload, next->isPieceData, now );
107
108        if( overhead > 0 )
109            tr_bandwidthUsed( &io->bandwidth, TR_UP, overhead, FALSE, now );
110
111        if( io->didWrite )
112            io->didWrite( io, payload, next->isPieceData, io->userData );
113
114        if( tr_isPeerIo( io ) )
115        {
116            bytes_transferred -= payload;
117            next->length -= payload;
118            if( !next->length ) {
119                tr_list_pop_front( &io->outbuf_datatypes );
120                tr_free( next );
121            }
122        }
123    }
124}
125
126static void
127canReadWrapper( tr_peerIo * io )
128{
129    tr_bool err = 0;
130    tr_bool done = 0;
131    tr_session * session;
132
133    dbgmsg( io, "canRead" );
134
135    assert( tr_isPeerIo( io ) );
136    assert( tr_isSession( io->session ) );
137    tr_peerIoRef( io );
138
139    session = io->session;
140
141    /* try to consume the input buffer */
142    if( io->canRead )
143    {
144        const uint64_t now = tr_sessionGetTimeMsec( io->session );
145
146        tr_sessionLock( session );
147
148        while( !done && !err )
149        {
150            size_t piece = 0;
151            const size_t oldLen = evbuffer_get_length( io->inbuf );
152            const int ret = io->canRead( io, io->userData, &piece );
153            const size_t used = oldLen - evbuffer_get_length( io->inbuf );
154            const unsigned int overhead = guessPacketOverhead( used );
155
156            assert( tr_isPeerIo( io ) );
157
158            if( piece || (piece!=used) )
159            {
160                if( piece )
161                    tr_bandwidthUsed( &io->bandwidth, TR_DOWN, piece, TRUE, now );
162
163                if( used != piece )
164                    tr_bandwidthUsed( &io->bandwidth, TR_DOWN, used - piece, FALSE, now );
165            }
166
167            if( overhead > 0 )
168                tr_bandwidthUsed( &io->bandwidth, TR_UP, overhead, FALSE, now );
169
170            switch( ret )
171            {
172                case READ_NOW:
173                    if( evbuffer_get_length( io->inbuf ) )
174                        continue;
175                    done = 1;
176                    break;
177
178                case READ_LATER:
179                    done = 1;
180                    break;
181
182                case READ_ERR:
183                    err = 1;
184                    break;
185            }
186
187            assert( tr_isPeerIo( io ) );
188        }
189
190        tr_sessionUnlock( session );
191    }
192
193    assert( tr_isPeerIo( io ) );
194    tr_peerIoUnref( io );
195}
196
197tr_bool
198tr_isPeerIo( const tr_peerIo * io )
199{
200    return ( io != NULL )
201        && ( io->magicNumber == MAGIC_NUMBER )
202        && ( io->refCount >= 0 )
203        && ( tr_isBandwidth( &io->bandwidth ) )
204        && ( tr_isAddress( &io->addr ) );
205}
206
207static void
208event_read_cb( int fd, short event UNUSED, void * vio )
209{
210    int res;
211    int e;
212    tr_peerIo * io = vio;
213
214    /* Limit the input buffer to 256K, so it doesn't grow too large */
215    unsigned int howmuch;
216    unsigned int curlen;
217    const tr_direction dir = TR_DOWN;
218    const unsigned int max = 256 * 1024;
219
220    assert( tr_isPeerIo( io ) );
221    assert( io->socket >= 0 );
222
223    io->pendingEvents &= ~EV_READ;
224
225    curlen = evbuffer_get_length( io->inbuf );
226    howmuch = curlen >= max ? 0 : max - curlen;
227    howmuch = tr_bandwidthClamp( &io->bandwidth, TR_DOWN, howmuch );
228
229    dbgmsg( io, "libevent says this peer is ready to read" );
230
231    /* if we don't have any bandwidth left, stop reading */
232    if( howmuch < 1 ) {
233        tr_peerIoSetEnabled( io, dir, FALSE );
234        return;
235    }
236
237    EVUTIL_SET_SOCKET_ERROR( 0 );
238    res = evbuffer_read( io->inbuf, fd, (int)howmuch );
239    e = EVUTIL_SOCKET_ERROR( );
240
241    if( res > 0 )
242    {
243        tr_peerIoSetEnabled( io, dir, TRUE );
244
245        /* Invoke the user callback - must always be called last */
246        canReadWrapper( io );
247    }
248    else
249    {
250        char errstr[512];
251        short what = BEV_EVENT_READING;
252
253        if( res == 0 ) /* EOF */
254            what |= BEV_EVENT_EOF;
255        else if( res == -1 ) {
256            if( e == EAGAIN || e == EINTR ) {
257                tr_peerIoSetEnabled( io, dir, TRUE );
258                return;
259            }
260            what |= BEV_EVENT_ERROR;
261        }
262
263        tr_net_strerror( errstr, sizeof( errstr ), e );
264        dbgmsg( io, "event_read_cb got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, errstr );
265
266        if( io->gotError != NULL )
267            io->gotError( io, what, io->userData );
268    }
269}
270
271static int
272tr_evbuffer_write( tr_peerIo * io, int fd, size_t howmuch )
273{
274    int e;
275    int n;
276    char errstr[256];
277
278    EVUTIL_SET_SOCKET_ERROR( 0 );
279    n = evbuffer_write_atmost( io->outbuf, fd, howmuch );
280    e = EVUTIL_SOCKET_ERROR( );
281    dbgmsg( io, "wrote %d to peer (%s)", n, (n==-1?tr_net_strerror(errstr,sizeof(errstr),e):"") );
282
283    return n;
284}
285
286static void
287event_write_cb( int fd, short event UNUSED, void * vio )
288{
289    int res = 0;
290    int e;
291    short what = BEV_EVENT_WRITING;
292    tr_peerIo * io = vio;
293    size_t howmuch;
294    const tr_direction dir = TR_UP;
295
296    assert( tr_isPeerIo( io ) );
297    assert( io->socket >= 0 );
298
299    io->pendingEvents &= ~EV_WRITE;
300
301    dbgmsg( io, "libevent says this peer is ready to write" );
302
303    /* Write as much as possible, since the socket is non-blocking, write() will
304     * return if it can't write any more data without blocking */
305    howmuch = tr_bandwidthClamp( &io->bandwidth, dir, evbuffer_get_length( io->outbuf ) );
306
307    /* if we don't have any bandwidth left, stop writing */
308    if( howmuch < 1 ) {
309        tr_peerIoSetEnabled( io, dir, FALSE );
310        return;
311    }
312
313    EVUTIL_SET_SOCKET_ERROR( 0 );
314    res = tr_evbuffer_write( io, fd, howmuch );
315    e = EVUTIL_SOCKET_ERROR( );
316
317    if (res == -1) {
318        if (!e || e == EAGAIN || e == EINTR || e == EINPROGRESS)
319            goto reschedule;
320        /* error case */
321        what |= BEV_EVENT_ERROR;
322    } else if (res == 0) {
323        /* eof case */
324        what |= BEV_EVENT_EOF;
325    }
326    if (res <= 0)
327        goto error;
328
329    if( evbuffer_get_length( io->outbuf ) )
330        tr_peerIoSetEnabled( io, dir, TRUE );
331
332    didWriteWrapper( io, res );
333    return;
334
335 reschedule:
336    if( evbuffer_get_length( io->outbuf ) )
337        tr_peerIoSetEnabled( io, dir, TRUE );
338    return;
339
340 error:
341
342    dbgmsg( io, "event_write_cb got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, strerror( e ) );
343
344    if( io->gotError != NULL )
345        io->gotError( io, what, io->userData );
346}
347
348/**
349***
350**/
351
352static void
353maybeSetCongestionAlgorithm( int socket, const char * algorithm )
354{
355    if( algorithm && *algorithm )
356    {
357        const int rc = tr_netSetCongestionControl( socket, algorithm );
358
359        if( rc < 0 )
360            tr_ninf( "Net", "Can't set congestion control algorithm '%s': %s",
361                     algorithm, tr_strerror( errno ));
362    }
363}
364
365/* UTP callbacks */
366
367static void
368utp_on_read(void *closure, const unsigned char *buf, size_t buflen)
369{
370    int rc;
371    tr_peerIo *io = (tr_peerIo *)closure;
372    assert( tr_isPeerIo( io ) );
373
374    tr_ndbg( "UTP", "On read: %ld", (long)buflen );
375
376    rc = evbuffer_add( io->inbuf, buf, buflen );
377    if( rc < 0 ) {
378        tr_nerr( "UTP", "On read evbuffer_add" );
379        return;
380    }
381
382    tr_peerIoSetEnabled( io, TR_DOWN, TRUE );
383    canReadWrapper( io );
384}
385
386static void
387utp_on_write(void *closure, unsigned char *buf, size_t buflen)
388{
389    tr_peerIo *io = (tr_peerIo *)closure;
390    int rc;
391
392    assert( tr_isPeerIo( io ) );
393    tr_ndbg( "UTP", "On write: %ld", (long)buflen );
394
395    rc = evbuffer_remove( io->outbuf, buf, buflen );
396    if( rc < (long)buflen ) {
397        tr_nerr( "UTP", "Short write: %d < %ld", rc, (long)buflen);
398    }
399}
400
401static size_t
402utp_get_rb_size(void *closure)
403{
404    tr_peerIo *io = (tr_peerIo *)closure;
405    assert( tr_isPeerIo( io ) );
406
407    tr_ndbg( "UTP", "Get RB size" );
408    return 0;
409}
410
411static void
412utp_on_state_change(void *closure, int state)
413{
414    tr_peerIo *io = (tr_peerIo *)closure;
415    assert( tr_isPeerIo( io ) );
416
417    tr_ndbg( "UTP", "On state change: %d", state );
418
419    if( state == UTP_STATE_CONNECT || state == UTP_STATE_WRITABLE ) {
420        size_t count = evbuffer_get_length( io->outbuf );
421        if( count > 0 )
422            UTP_Write( io->utp_socket, count );
423    } else if( state == UTP_STATE_EOF ) {
424        if( io->gotError )
425            io->gotError( io, BEV_EVENT_EOF, io->userData );
426    } else if( state == UTP_STATE_DESTROYING ) {
427        tr_nerr( "UTP", "Impossible state UTP_STATE_DESTROYING" );
428        return;
429    } else {
430        tr_nerr( "UTP", "Unknown state %d", state );
431    }
432}
433
434static void
435utp_on_error(void *closure, int errcode)
436{
437    tr_peerIo *io = (tr_peerIo *)closure;
438    assert( tr_isPeerIo( io ) );
439
440    tr_ndbg( "UTP", "Error callback: %s", tr_strerror( errcode ) );
441
442    if( io->gotError ) {
443        errno = errcode;
444        io->gotError( io, BEV_EVENT_ERROR, io->userData );
445    }
446}
447
448static void
449utp_on_overhead(void *closure, bool send, size_t count, int type)
450{
451    tr_peerIo *io = (tr_peerIo *)closure;
452    assert( tr_isPeerIo( io ) );
453
454    tr_ndbg( "UTP", "On overhead: %d %ld %d", (int)send, (long)count, type );
455}
456
457static struct UTPFunctionTable utp_function_table = {
458    .on_read = utp_on_read,
459    .on_write = utp_on_write,
460    .get_rb_size = utp_get_rb_size,
461    .on_state = utp_on_state_change,
462    .on_error = utp_on_error,
463    .on_overhead = utp_on_overhead
464};
465
466/* Dummy UTP callbacks. */
467/* We switch a UTP socket to use these after the associated peerIo has been
468   destroyed -- see io_dtor. */
469
470static void
471dummy_read(void *closure, const unsigned char *buf, size_t buflen)
472{
473    abort();
474}
475
476static void
477dummy_write(void *closure, unsigned char *buf, size_t buflen)
478{
479    abort();
480}
481
482static size_t
483dummy_get_rb_size(void *closure)
484{
485    return 0;
486}
487
488static void
489dummy_on_state_change(void *closure, int state)
490{
491    return;
492}
493
494static void
495dummy_on_error(void *closure, int errcode)
496{
497    return;
498}
499
500static void
501dummy_on_overhead(void *closure, bool send, size_t count, int type)
502{
503}
504
505static struct UTPFunctionTable dummy_utp_function_table = {
506    .on_read = dummy_read,
507    .on_write = dummy_write,
508    .get_rb_size = dummy_get_rb_size,
509    .on_state = dummy_on_state_change,
510    .on_error = dummy_on_error,
511    .on_overhead = dummy_on_overhead
512};
513
514static tr_peerIo*
515tr_peerIoNew( tr_session       * session,
516              tr_bandwidth     * parent,
517              const tr_address * addr,
518              tr_port            port,
519              const uint8_t    * torrentHash,
520              tr_bool            isIncoming,
521              tr_bool            isSeed,
522              int                socket,
523              struct UTPSocket * utp_socket)
524{
525    tr_peerIo * io;
526
527    assert( session != NULL );
528    assert( session->events != NULL );
529    assert( tr_isBool( isIncoming ) );
530    assert( tr_isBool( isSeed ) );
531    assert( tr_amInEventThread( session ) );
532    assert( (socket < 0) == (utp_socket != NULL) );
533
534    if( socket >= 0 ) {
535        tr_netSetTOS( socket, session->peerSocketTOS );
536        maybeSetCongestionAlgorithm( socket, session->peer_congestion_algorithm );
537    }
538
539    io = tr_new0( tr_peerIo, 1 );
540    io->magicNumber = MAGIC_NUMBER;
541    io->refCount = 1;
542    io->crypto = tr_cryptoNew( torrentHash, isIncoming );
543    io->session = session;
544    io->addr = *addr;
545    io->isSeed = isSeed;
546    io->port = port;
547    io->socket = socket;
548    io->utp_socket = utp_socket;
549    io->isIncoming = isIncoming != 0;
550    io->timeCreated = tr_time( );
551    io->inbuf = evbuffer_new( );
552    io->outbuf = evbuffer_new( );
553    tr_bandwidthConstruct( &io->bandwidth, session, parent );
554    tr_bandwidthSetPeer( &io->bandwidth, io );
555    dbgmsg( io, "bandwidth is %p; its parent is %p", &io->bandwidth, parent );
556
557    if( io->socket >= 0 ) {
558        io->event_read = event_new( session->event_base,
559                                    io->socket, EV_READ, event_read_cb, io );
560        io->event_write = event_new( session->event_base,
561                                     io->socket, EV_WRITE, event_write_cb, io );
562    } else {
563        tr_ndbg( "UTP", "New %s connection",
564                 isIncoming ? "incoming" : "outgoing" );
565        UTP_SetCallbacks( utp_socket,
566                          &utp_function_table,
567                          io );
568    }
569
570    return io;
571}
572
573tr_peerIo*
574tr_peerIoNewIncoming( tr_session        * session,
575                      tr_bandwidth      * parent,
576                      const tr_address  * addr,
577                      tr_port             port,
578                      int                 fd,
579                      struct UTPSocket  * utp_socket )
580{
581    assert( session );
582    assert( tr_isAddress( addr ) );
583
584    return tr_peerIoNew( session, parent, addr, port, NULL, TRUE, FALSE, 
585                         fd, utp_socket );
586}
587
588tr_peerIo*
589tr_peerIoNewOutgoing( tr_session        * session,
590                      tr_bandwidth      * parent,
591                      const tr_address  * addr,
592                      tr_port             port,
593                      const uint8_t     * torrentHash,
594                      tr_bool             isSeed )
595{
596    int fd;
597
598    assert( session );
599    assert( tr_isAddress( addr ) );
600    assert( torrentHash );
601
602    fd = tr_netOpenPeerSocket( session, addr, port, isSeed );
603    dbgmsg( NULL, "tr_netOpenPeerSocket returned fd %d", fd );
604
605    return fd < 0 ? NULL
606                  : tr_peerIoNew( session, parent, addr, port,
607                                  torrentHash, FALSE, isSeed, fd, NULL );
608}
609
610/***
611****
612***/
613
614static void
615event_enable( tr_peerIo * io, short event )
616{
617    assert( tr_amInEventThread( io->session ) );
618    assert( io->session != NULL );
619    assert( io->session->events != NULL );
620
621    if( io->socket < 0 )
622        return;
623
624    assert( io->session->events != NULL );
625    assert( event_initialized( io->event_read ) );
626    assert( event_initialized( io->event_write ) );
627
628    if( ( event & EV_READ ) && ! ( io->pendingEvents & EV_READ ) )
629    {
630        dbgmsg( io, "enabling libevent ready-to-read polling" );
631        event_add( io->event_read, NULL );
632        io->pendingEvents |= EV_READ;
633    }
634
635    if( ( event & EV_WRITE ) && ! ( io->pendingEvents & EV_WRITE ) )
636    {
637        dbgmsg( io, "enabling libevent ready-to-write polling" );
638        event_add( io->event_write, NULL );
639        io->pendingEvents |= EV_WRITE;
640    }
641}
642
643static void
644event_disable( struct tr_peerIo * io, short event )
645{
646    assert( tr_amInEventThread( io->session ) );
647    assert( io->session != NULL );
648
649    if( io->socket < 0 )
650        return;
651
652    assert( io->session->events != NULL );
653    assert( event_initialized( io->event_read ) );
654    assert( event_initialized( io->event_write ) );
655
656    if( ( event & EV_READ ) && ( io->pendingEvents & EV_READ ) )
657    {
658        dbgmsg( io, "disabling libevent ready-to-read polling" );
659        event_del( io->event_read );
660        io->pendingEvents &= ~EV_READ;
661    }
662
663    if( ( event & EV_WRITE ) && ( io->pendingEvents & EV_WRITE ) )
664    {
665        dbgmsg( io, "disabling libevent ready-to-write polling" );
666        event_del( io->event_write );
667        io->pendingEvents &= ~EV_WRITE;
668    }
669}
670
671void
672tr_peerIoSetEnabled( tr_peerIo    * io,
673                     tr_direction   dir,
674                     tr_bool        isEnabled )
675{
676    const short event = dir == TR_UP ? EV_WRITE : EV_READ;
677
678    assert( tr_isPeerIo( io ) );
679    assert( tr_isDirection( dir ) );
680    assert( tr_amInEventThread( io->session ) );
681    assert( io->session->events != NULL );
682
683    if( isEnabled )
684        event_enable( io, event );
685    else
686        event_disable( io, event );
687}
688
689/***
690****
691***/
692
693static void
694io_dtor( void * vio )
695{
696    tr_peerIo * io = vio;
697
698    assert( tr_isPeerIo( io ) );
699    assert( tr_amInEventThread( io->session ) );
700    assert( io->session->events != NULL );
701
702    dbgmsg( io, "in tr_peerIo destructor" );
703    event_disable( io, EV_READ | EV_WRITE );
704    tr_bandwidthDestruct( &io->bandwidth );
705    evbuffer_free( io->outbuf );
706    evbuffer_free( io->inbuf );
707    if( io->socket >= 0 ) {
708        event_free( io->event_read );
709        event_free( io->event_write );
710        tr_netClose( io->session, io->socket );
711    }
712    if( io->utp_socket != NULL ) {
713        tr_ndbg( "UTP", "Destroying connection");
714        UTP_SetCallbacks( io->utp_socket,
715                          &dummy_utp_function_table,
716                          NULL );
717        UTP_Close( io->utp_socket );
718    }
719    tr_cryptoFree( io->crypto );
720    tr_list_free( &io->outbuf_datatypes, tr_free );
721
722    memset( io, ~0, sizeof( tr_peerIo ) );
723    tr_free( io );
724}
725
726static void
727tr_peerIoFree( tr_peerIo * io )
728{
729    if( io )
730    {
731        dbgmsg( io, "in tr_peerIoFree" );
732        io->canRead = NULL;
733        io->didWrite = NULL;
734        io->gotError = NULL;
735        tr_runInEventThread( io->session, io_dtor, io );
736    }
737}
738
739void
740tr_peerIoRefImpl( const char * file, int line, tr_peerIo * io )
741{
742    assert( tr_isPeerIo( io ) );
743
744    dbgmsg( io, "%s:%d is incrementing the IO's refcount from %d to %d",
745                file, line, io->refCount, io->refCount+1 );
746
747    ++io->refCount;
748}
749
750void
751tr_peerIoUnrefImpl( const char * file, int line, tr_peerIo * io )
752{
753    assert( tr_isPeerIo( io ) );
754
755    dbgmsg( io, "%s:%d is decrementing the IO's refcount from %d to %d",
756                file, line, io->refCount, io->refCount-1 );
757
758    if( !--io->refCount )
759        tr_peerIoFree( io );
760}
761
762const tr_address*
763tr_peerIoGetAddress( const tr_peerIo * io, tr_port   * port )
764{
765    assert( tr_isPeerIo( io ) );
766
767    if( port )
768        *port = io->port;
769
770    return &io->addr;
771}
772
773const char*
774tr_peerIoAddrStr( const tr_address * addr, tr_port port )
775{
776    static char buf[512];
777
778    if( addr->type == TR_AF_INET )
779        tr_snprintf( buf, sizeof( buf ), "%s:%u", tr_ntop_non_ts( addr ), ntohs( port ) );
780    else
781        tr_snprintf( buf, sizeof( buf ), "[%s]:%u", tr_ntop_non_ts( addr ), ntohs( port ) );
782    return buf;
783}
784
785const char* tr_peerIoGetAddrStr( const tr_peerIo * io )
786{
787    return tr_isPeerIo( io ) ? tr_peerIoAddrStr( &io->addr, io->port ) : "error";
788}
789
790void
791tr_peerIoSetIOFuncs( tr_peerIo        * io,
792                     tr_can_read_cb     readcb,
793                     tr_did_write_cb    writecb,
794                     tr_net_error_cb    errcb,
795                     void             * userData )
796{
797    io->canRead = readcb;
798    io->didWrite = writecb;
799    io->gotError = errcb;
800    io->userData = userData;
801}
802
803void
804tr_peerIoClear( tr_peerIo * io )
805{
806    tr_peerIoSetIOFuncs( io, NULL, NULL, NULL, NULL );
807    tr_peerIoSetEnabled( io, TR_UP, FALSE );
808    tr_peerIoSetEnabled( io, TR_DOWN, FALSE );
809}
810
811int
812tr_peerIoReconnect( tr_peerIo * io )
813{
814    short int pendingEvents;
815    tr_session * session;
816
817    assert( tr_isPeerIo( io ) );
818    assert( !tr_peerIoIsIncoming( io ) );
819
820    session = tr_peerIoGetSession( io );
821
822    pendingEvents = io->pendingEvents;
823    event_disable( io, EV_READ | EV_WRITE );
824
825    if( io->socket >= 0 ) {
826        tr_netClose( session, io->socket );
827        io->socket = -1;
828    }
829    if( io->utp_socket != NULL ) {
830        UTP_Close(io->utp_socket);
831        io->utp_socket = NULL;
832    }
833
834    event_free( io->event_read );
835    event_free( io->event_write );
836    io->socket = tr_netOpenPeerSocket( session, &io->addr, io->port, io->isSeed );
837    io->event_read = event_new( session->event_base, io->socket, EV_READ, event_read_cb, io );
838    io->event_write = event_new( session->event_base, io->socket, EV_WRITE, event_write_cb, io );
839
840    if( io->socket >= 0 )
841    {
842        event_enable( io, pendingEvents );
843        tr_netSetTOS( io->socket, session->peerSocketTOS );
844        maybeSetCongestionAlgorithm( io->socket, session->peer_congestion_algorithm );
845        return 0;
846    }
847
848    return -1;
849}
850
851/**
852***
853**/
854
855void
856tr_peerIoSetTorrentHash( tr_peerIo *     io,
857                         const uint8_t * hash )
858{
859    assert( tr_isPeerIo( io ) );
860
861    tr_cryptoSetTorrentHash( io->crypto, hash );
862}
863
864const uint8_t*
865tr_peerIoGetTorrentHash( tr_peerIo * io )
866{
867    assert( tr_isPeerIo( io ) );
868    assert( io->crypto );
869
870    return tr_cryptoGetTorrentHash( io->crypto );
871}
872
873int
874tr_peerIoHasTorrentHash( const tr_peerIo * io )
875{
876    assert( tr_isPeerIo( io ) );
877    assert( io->crypto );
878
879    return tr_cryptoHasTorrentHash( io->crypto );
880}
881
882/**
883***
884**/
885
886void
887tr_peerIoSetPeersId( tr_peerIo *     io,
888                     const uint8_t * peer_id )
889{
890    assert( tr_isPeerIo( io ) );
891
892    if( ( io->peerIdIsSet = peer_id != NULL ) )
893        memcpy( io->peerId, peer_id, 20 );
894    else
895        memset( io->peerId, 0, 20 );
896}
897
898/**
899***
900**/
901
902static unsigned int
903getDesiredOutputBufferSize( const tr_peerIo * io, uint64_t now )
904{
905    /* this is all kind of arbitrary, but what seems to work well is
906     * being large enough to hold the next 20 seconds' worth of input,
907     * or a few blocks, whichever is bigger.
908     * It's okay to tweak this as needed */
909    const unsigned int currentSpeed_Bps = tr_bandwidthGetPieceSpeed_Bps( &io->bandwidth, now, TR_UP );
910    const unsigned int period = 15u; /* arbitrary */
911    /* the 3 is arbitrary; the .5 is to leave room for messages */
912    static const unsigned int ceiling =  (unsigned int)( MAX_BLOCK_SIZE * 3.5 );
913    return MAX( ceiling, currentSpeed_Bps*period );
914}
915
916size_t
917tr_peerIoGetWriteBufferSpace( const tr_peerIo * io, uint64_t now )
918{
919    const size_t desiredLen = getDesiredOutputBufferSize( io, now );
920    const size_t currentLen = evbuffer_get_length( io->outbuf );
921    size_t freeSpace = 0;
922
923    if( desiredLen > currentLen )
924        freeSpace = desiredLen - currentLen;
925
926    return freeSpace;
927}
928
929/**
930***
931**/
932
933void
934tr_peerIoSetEncryption( tr_peerIo * io, uint32_t encryptionMode )
935{
936    assert( tr_isPeerIo( io ) );
937    assert( encryptionMode == PEER_ENCRYPTION_NONE
938         || encryptionMode == PEER_ENCRYPTION_RC4 );
939
940    io->encryptionMode = encryptionMode;
941}
942
943/**
944***
945**/
946
947static void
948addDatatype( tr_peerIo * io, size_t byteCount, tr_bool isPieceData )
949{
950    struct tr_datatype * d;
951
952    d = tr_new( struct tr_datatype, 1 );
953    d->isPieceData = isPieceData != 0;
954    d->length = byteCount;
955    tr_list_append( &io->outbuf_datatypes, d );
956}
957
958static struct evbuffer_iovec *
959evbuffer_peek_all( struct evbuffer * buf, size_t * setme_vecCount )
960{
961    const size_t byteCount = evbuffer_get_length( buf );
962    const int vecCount = evbuffer_peek( buf, byteCount, NULL, NULL, 0 );
963    struct evbuffer_iovec * iovec = tr_new0( struct evbuffer_iovec, vecCount );
964    const int n = evbuffer_peek( buf, byteCount, NULL, iovec, vecCount );
965    assert( n == vecCount );
966    *setme_vecCount = n;
967    return iovec;
968}
969
970static void
971maybeEncryptBuffer( tr_peerIo * io, struct evbuffer * buf )
972{
973    if( io->encryptionMode == PEER_ENCRYPTION_RC4 )
974    {
975        size_t i, n;
976        struct evbuffer_iovec * iovec = evbuffer_peek_all( buf, &n );
977
978        for( i=0; i<n; ++i )
979            tr_cryptoEncrypt( io->crypto, iovec[i].iov_len, iovec[i].iov_base, iovec[i].iov_base );
980
981        tr_free( iovec );
982    }
983}
984
985void
986tr_peerIoWriteBuf( tr_peerIo * io, struct evbuffer * buf, tr_bool isPieceData )
987{
988    const size_t byteCount = evbuffer_get_length( buf );
989    maybeEncryptBuffer( io, buf );
990    evbuffer_add_buffer( io->outbuf, buf );
991    addDatatype( io, byteCount, isPieceData );
992    if( io->utp_socket )
993        UTP_Write( io->utp_socket, byteCount );
994}
995
996void
997tr_peerIoWriteBytes( tr_peerIo * io, const void * bytes, size_t byteCount, tr_bool isPieceData )
998{
999    struct evbuffer * buf = evbuffer_new( );
1000    evbuffer_add( buf, bytes, byteCount );
1001    tr_peerIoWriteBuf( io, buf, isPieceData );
1002    evbuffer_free( buf );
1003}
1004
1005/***
1006****
1007***/
1008
1009void
1010evbuffer_add_uint8( struct evbuffer * outbuf, uint8_t byte )
1011{
1012    evbuffer_add( outbuf, &byte, 1 );
1013}
1014
1015void
1016evbuffer_add_uint16( struct evbuffer * outbuf, uint16_t addme_hs )
1017{
1018    const uint16_t ns = htons( addme_hs );
1019    evbuffer_add( outbuf, &ns, sizeof( ns ) );
1020}
1021
1022void
1023evbuffer_add_uint32( struct evbuffer * outbuf, uint32_t addme_hl )
1024{
1025    const uint32_t nl = htonl( addme_hl );
1026    evbuffer_add( outbuf, &nl, sizeof( nl ) );
1027}
1028
1029/***
1030****
1031***/
1032
1033void
1034tr_peerIoReadBytes( tr_peerIo * io, struct evbuffer * inbuf, void * bytes, size_t byteCount )
1035{
1036    assert( tr_isPeerIo( io ) );
1037    assert( evbuffer_get_length( inbuf )  >= byteCount );
1038
1039    switch( io->encryptionMode )
1040    {
1041        case PEER_ENCRYPTION_NONE:
1042            evbuffer_remove( inbuf, bytes, byteCount );
1043            break;
1044
1045        case PEER_ENCRYPTION_RC4:
1046            evbuffer_remove( inbuf, bytes, byteCount );
1047            tr_cryptoDecrypt( io->crypto, byteCount, bytes, bytes );
1048            break;
1049
1050        default:
1051            assert( 0 );
1052    }
1053}
1054
1055void
1056tr_peerIoReadUint16( tr_peerIo        * io,
1057                     struct evbuffer  * inbuf,
1058                     uint16_t         * setme )
1059{
1060    uint16_t tmp;
1061    tr_peerIoReadBytes( io, inbuf, &tmp, sizeof( uint16_t ) );
1062    *setme = ntohs( tmp );
1063}
1064
1065void tr_peerIoReadUint32( tr_peerIo        * io,
1066                          struct evbuffer  * inbuf,
1067                          uint32_t         * setme )
1068{
1069    uint32_t tmp;
1070    tr_peerIoReadBytes( io, inbuf, &tmp, sizeof( uint32_t ) );
1071    *setme = ntohl( tmp );
1072}
1073
1074void
1075tr_peerIoDrain( tr_peerIo       * io,
1076                struct evbuffer * inbuf,
1077                size_t            byteCount )
1078{
1079    void * buf = tr_sessionGetBuffer( io->session );
1080    const size_t buflen = SESSION_BUFFER_SIZE;
1081
1082    while( byteCount > 0 )
1083    {
1084        const size_t thisPass = MIN( byteCount, buflen );
1085        tr_peerIoReadBytes( io, inbuf, buf, thisPass );
1086        byteCount -= thisPass;
1087    }
1088
1089    tr_sessionReleaseBuffer( io->session );
1090}
1091
1092/***
1093****
1094***/
1095
1096static int
1097tr_peerIoTryRead( tr_peerIo * io, size_t howmuch )
1098{
1099    int res = 0;
1100
1101    if(( howmuch = tr_bandwidthClamp( &io->bandwidth, TR_DOWN, howmuch )))
1102    {
1103        int e;
1104
1105        EVUTIL_SET_SOCKET_ERROR( 0 );
1106        res = evbuffer_read( io->inbuf, io->socket, (int)howmuch );
1107        e = EVUTIL_SOCKET_ERROR( );
1108
1109        dbgmsg( io, "read %d from peer (%s)", res, (res==-1?strerror(e):"") );
1110
1111        if( evbuffer_get_length( io->inbuf ) )
1112            canReadWrapper( io );
1113
1114        if( ( res <= 0 ) && ( io->gotError ) && ( e != EAGAIN ) && ( e != EINTR ) && ( e != EINPROGRESS ) )
1115        {
1116            char errstr[512];
1117            short what = BEV_EVENT_READING | BEV_EVENT_ERROR;
1118            if( res == 0 )
1119                what |= BEV_EVENT_EOF;
1120            tr_net_strerror( errstr, sizeof( errstr ), e );
1121            dbgmsg( io, "tr_peerIoTryRead got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, errstr );
1122            io->gotError( io, what, io->userData );
1123        }
1124    }
1125
1126    return res;
1127}
1128
1129static int
1130tr_peerIoTryWrite( tr_peerIo * io, size_t howmuch )
1131{
1132    int n = 0;
1133
1134    if(( howmuch = tr_bandwidthClamp( &io->bandwidth, TR_UP, howmuch )))
1135    {
1136        int e;
1137        EVUTIL_SET_SOCKET_ERROR( 0 );
1138        n = tr_evbuffer_write( io, io->socket, howmuch );
1139        e = EVUTIL_SOCKET_ERROR( );
1140
1141        if( n > 0 )
1142            didWriteWrapper( io, n );
1143
1144        if( ( n < 0 ) && ( io->gotError ) && e && ( e != EPIPE ) && ( e != EAGAIN ) && ( e != EINTR ) && ( e != EINPROGRESS ) )
1145        {
1146            char errstr[512];
1147            const short what = BEV_EVENT_WRITING | BEV_EVENT_ERROR;
1148
1149            tr_net_strerror( errstr, sizeof( errstr ), e );
1150            dbgmsg( io, "tr_peerIoTryWrite got an error. res is %d, what is %hd, errno is %d (%s)", n, what, e, errstr );
1151
1152            if( io->gotError != NULL )
1153                io->gotError( io, what, io->userData );
1154        }
1155    }
1156
1157    return n;
1158}
1159
1160int
1161tr_peerIoFlush( tr_peerIo  * io, tr_direction dir, size_t limit )
1162{
1163    int bytesUsed = 0;
1164
1165    assert( tr_isPeerIo( io ) );
1166    assert( tr_isDirection( dir ) );
1167
1168    if( dir == TR_DOWN )
1169        bytesUsed = tr_peerIoTryRead( io, limit );
1170    else
1171        bytesUsed = tr_peerIoTryWrite( io, limit );
1172
1173    dbgmsg( io, "flushing peer-io, direction %d, limit %zu, bytesUsed %d", (int)dir, limit, bytesUsed );
1174    return bytesUsed;
1175}
1176
1177int
1178tr_peerIoFlushOutgoingProtocolMsgs( tr_peerIo * io )
1179{
1180    size_t byteCount = 0;
1181    tr_list * it;
1182
1183    /* count up how many bytes are used by non-piece-data messages
1184       at the front of our outbound queue */
1185    for( it=io->outbuf_datatypes; it!=NULL; it=it->next )
1186    {
1187        struct tr_datatype * d = it->data;
1188
1189        if( d->isPieceData )
1190            break;
1191
1192        byteCount += d->length;
1193    }
1194
1195    return tr_peerIoFlush( io, TR_UP, byteCount );
1196}
Note: See TracBrowser for help on using the repository browser.