source: trunk/libtransmission/peer-io.c @ 12229

Last change on this file since 12229 was 12229, checked in by jordan, 11 years ago

(trunk libT) API cleanup of the tr_address functions to make them more consistent.

This is loosely related to #2910, but only in the sense of laying the groundwork for #2910's fix...

  • Property svn:keywords set to Date Rev Author Id
File size: 32.3 KB
Line 
1/*
2 * This file Copyright (C) Mnemosyne LLC
3 *
4 * This file is licensed by the GPL version 2. Works owned by the
5 * Transmission project are granted a special exemption to clause 2(b)
6 * so that the bulk of its code can remain under the MIT license.
7 * This exemption does not extend to derived works not owned by
8 * the Transmission project.
9 *
10 * $Id: peer-io.c 12229 2011-03-25 05:34:26Z jordan $
11 */
12
13#include <assert.h>
14#include <errno.h>
15#include <limits.h> /* INT_MAX */
16#include <string.h>
17
18#include <event2/event.h>
19#include <event2/buffer.h>
20#include <event2/bufferevent.h>
21
22#include <libutp/utp.h>
23
24#include "transmission.h"
25#include "session.h"
26#include "bandwidth.h"
27#include "crypto.h"
28#include "list.h"
29#include "net.h"
30#include "peer-common.h" /* MAX_BLOCK_SIZE */
31#include "peer-io.h"
32#include "trevent.h" /* tr_runInEventThread() */
33#include "utils.h"
34
35
36#ifdef WIN32
37 #define EAGAIN       WSAEWOULDBLOCK
38 #define EINTR        WSAEINTR
39 #define EINPROGRESS  WSAEINPROGRESS
40 #define EPIPE        WSAECONNRESET
41#endif
42
43/* The amount of read bufferring that we allow for uTP sockets. */
44
45#define UTP_READ_BUFFER_SIZE (256 * 1024)
46
47static size_t
48guessPacketOverhead( size_t d )
49{
50    /**
51     * http://sd.wareonearth.com/~phil/net/overhead/
52     *
53     * TCP over Ethernet:
54     * Assuming no header compression (e.g. not PPP)
55     * Add 20 IPv4 header or 40 IPv6 header (no options)
56     * Add 20 TCP header
57     * Add 12 bytes optional TCP timestamps
58     * Max TCP Payload data rates over ethernet are thus:
59     *  (1500-40)/(38+1500) = 94.9285 %  IPv4, minimal headers
60     *  (1500-52)/(38+1500) = 94.1482 %  IPv4, TCP timestamps
61     *  (1500-52)/(42+1500) = 93.9040 %  802.1q, IPv4, TCP timestamps
62     *  (1500-60)/(38+1500) = 93.6281 %  IPv6, minimal headers
63     *  (1500-72)/(38+1500) = 92.8479 %  IPv6, TCP timestamps
64     *  (1500-72)/(42+1500) = 92.6070 %  802.1q, IPv6, ICP timestamps
65     */
66    const double assumed_payload_data_rate = 94.0;
67
68    return (unsigned int)( d * ( 100.0 / assumed_payload_data_rate ) - d );
69}
70
71/**
72***
73**/
74
75#define dbgmsg( io, ... ) \
76    do { \
77        if( tr_deepLoggingIsActive( ) ) \
78            tr_deepLog( __FILE__, __LINE__, tr_peerIoGetAddrStr( io ), __VA_ARGS__ ); \
79    } while( 0 )
80
81struct tr_datatype
82{
83    bool    isPieceData;
84    size_t  length;
85};
86
87
88/***
89****
90***/
91
92static void
93didWriteWrapper( tr_peerIo * io, unsigned int bytes_transferred )
94{
95     while( bytes_transferred && tr_isPeerIo( io ) )
96     {
97        struct tr_datatype * next = io->outbuf_datatypes->data;
98
99        const unsigned int payload = MIN( next->length, bytes_transferred );
100        /* For uTP sockets, the overhead is computed in utp_on_overhead. */
101        const unsigned int overhead =
102            io->socket ? guessPacketOverhead( payload ) : 0;
103        const uint64_t now = tr_time_msec( );
104
105        tr_bandwidthUsed( &io->bandwidth, TR_UP, payload, next->isPieceData, now );
106
107        if( overhead > 0 )
108            tr_bandwidthUsed( &io->bandwidth, TR_UP, overhead, false, now );
109
110        if( io->didWrite )
111            io->didWrite( io, payload, next->isPieceData, io->userData );
112
113        if( tr_isPeerIo( io ) )
114        {
115            bytes_transferred -= payload;
116            next->length -= payload;
117            if( !next->length ) {
118                tr_list_pop_front( &io->outbuf_datatypes );
119                tr_free( next );
120            }
121        }
122    }
123}
124
125static void
126canReadWrapper( tr_peerIo * io )
127{
128    bool err = 0;
129    bool done = 0;
130    tr_session * session;
131
132    dbgmsg( io, "canRead" );
133
134    tr_peerIoRef( io );
135
136    session = io->session;
137
138    /* try to consume the input buffer */
139    if( io->canRead )
140    {
141        const uint64_t now = tr_time_msec( );
142
143        tr_sessionLock( session );
144
145        while( !done && !err )
146        {
147            size_t piece = 0;
148            const size_t oldLen = evbuffer_get_length( io->inbuf );
149            const int ret = io->canRead( io, io->userData, &piece );
150            const size_t used = oldLen - evbuffer_get_length( io->inbuf );
151            const unsigned int overhead = guessPacketOverhead( used );
152
153            if( piece || (piece!=used) )
154            {
155                if( piece )
156                    tr_bandwidthUsed( &io->bandwidth, TR_DOWN, piece, true, now );
157
158                if( used != piece )
159                    tr_bandwidthUsed( &io->bandwidth, TR_DOWN, used - piece, false, now );
160            }
161
162            if( overhead > 0 )
163                tr_bandwidthUsed( &io->bandwidth, TR_UP, overhead, false, now );
164
165            switch( ret )
166            {
167                case READ_NOW:
168                    if( evbuffer_get_length( io->inbuf ) )
169                        continue;
170                    done = 1;
171                    break;
172
173                case READ_LATER:
174                    done = 1;
175                    break;
176
177                case READ_ERR:
178                    err = 1;
179                    break;
180            }
181
182            assert( tr_isPeerIo( io ) );
183        }
184
185        tr_sessionUnlock( session );
186    }
187
188    tr_peerIoUnref( io );
189}
190
191static void
192event_read_cb( int fd, short event UNUSED, void * vio )
193{
194    int res;
195    int e;
196    tr_peerIo * io = vio;
197
198    /* Limit the input buffer to 256K, so it doesn't grow too large */
199    unsigned int howmuch;
200    unsigned int curlen;
201    const tr_direction dir = TR_DOWN;
202    const unsigned int max = 256 * 1024;
203
204    assert( tr_isPeerIo( io ) );
205    assert( io->socket >= 0 );
206
207    io->pendingEvents &= ~EV_READ;
208
209    curlen = evbuffer_get_length( io->inbuf );
210    howmuch = curlen >= max ? 0 : max - curlen;
211    howmuch = tr_bandwidthClamp( &io->bandwidth, TR_DOWN, howmuch );
212
213    dbgmsg( io, "libevent says this peer is ready to read" );
214
215    /* if we don't have any bandwidth left, stop reading */
216    if( howmuch < 1 ) {
217        tr_peerIoSetEnabled( io, dir, false );
218        return;
219    }
220
221    EVUTIL_SET_SOCKET_ERROR( 0 );
222    res = evbuffer_read( io->inbuf, fd, (int)howmuch );
223    e = EVUTIL_SOCKET_ERROR( );
224
225    if( res > 0 )
226    {
227        tr_peerIoSetEnabled( io, dir, true );
228
229        /* Invoke the user callback - must always be called last */
230        canReadWrapper( io );
231    }
232    else
233    {
234        char errstr[512];
235        short what = BEV_EVENT_READING;
236
237        if( res == 0 ) /* EOF */
238            what |= BEV_EVENT_EOF;
239        else if( res == -1 ) {
240            if( e == EAGAIN || e == EINTR ) {
241                tr_peerIoSetEnabled( io, dir, true );
242                return;
243            }
244            what |= BEV_EVENT_ERROR;
245        }
246
247        tr_net_strerror( errstr, sizeof( errstr ), e );
248        dbgmsg( io, "event_read_cb got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, errstr );
249
250        if( io->gotError != NULL )
251            io->gotError( io, what, io->userData );
252    }
253}
254
255static int
256tr_evbuffer_write( tr_peerIo * io, int fd, size_t howmuch )
257{
258    int e;
259    int n;
260    char errstr[256];
261
262    EVUTIL_SET_SOCKET_ERROR( 0 );
263    n = evbuffer_write_atmost( io->outbuf, fd, howmuch );
264    e = EVUTIL_SOCKET_ERROR( );
265    dbgmsg( io, "wrote %d to peer (%s)", n, (n==-1?tr_net_strerror(errstr,sizeof(errstr),e):"") );
266
267    return n;
268}
269
270static void
271event_write_cb( int fd, short event UNUSED, void * vio )
272{
273    int res = 0;
274    int e;
275    short what = BEV_EVENT_WRITING;
276    tr_peerIo * io = vio;
277    size_t howmuch;
278    const tr_direction dir = TR_UP;
279
280    assert( tr_isPeerIo( io ) );
281    assert( io->socket >= 0 );
282
283    io->pendingEvents &= ~EV_WRITE;
284
285    dbgmsg( io, "libevent says this peer is ready to write" );
286
287    /* Write as much as possible, since the socket is non-blocking, write() will
288     * return if it can't write any more data without blocking */
289    howmuch = tr_bandwidthClamp( &io->bandwidth, dir, evbuffer_get_length( io->outbuf ) );
290
291    /* if we don't have any bandwidth left, stop writing */
292    if( howmuch < 1 ) {
293        tr_peerIoSetEnabled( io, dir, false );
294        return;
295    }
296
297    EVUTIL_SET_SOCKET_ERROR( 0 );
298    res = tr_evbuffer_write( io, fd, howmuch );
299    e = EVUTIL_SOCKET_ERROR( );
300
301    if (res == -1) {
302        if (!e || e == EAGAIN || e == EINTR || e == EINPROGRESS)
303            goto reschedule;
304        /* error case */
305        what |= BEV_EVENT_ERROR;
306    } else if (res == 0) {
307        /* eof case */
308        what |= BEV_EVENT_EOF;
309    }
310    if (res <= 0)
311        goto error;
312
313    if( evbuffer_get_length( io->outbuf ) )
314        tr_peerIoSetEnabled( io, dir, true );
315
316    didWriteWrapper( io, res );
317    return;
318
319 reschedule:
320    if( evbuffer_get_length( io->outbuf ) )
321        tr_peerIoSetEnabled( io, dir, true );
322    return;
323
324 error:
325
326    dbgmsg( io, "event_write_cb got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, strerror( e ) );
327
328    if( io->gotError != NULL )
329        io->gotError( io, what, io->userData );
330}
331
332/**
333***
334**/
335
336static void
337maybeSetCongestionAlgorithm( int socket, const char * algorithm )
338{
339    if( algorithm && *algorithm )
340    {
341        const int rc = tr_netSetCongestionControl( socket, algorithm );
342
343        if( rc < 0 )
344            tr_ninf( "Net", "Can't set congestion control algorithm '%s': %s",
345                     algorithm, tr_strerror( errno ));
346    }
347}
348
349#ifdef WITH_UTP
350/* UTP callbacks */
351
352static void
353utp_on_read(void *closure, const unsigned char *buf, size_t buflen)
354{
355    int rc;
356    tr_peerIo *io = closure;
357    assert( tr_isPeerIo( io ) );
358
359    rc = evbuffer_add( io->inbuf, buf, buflen );
360    dbgmsg( io, "utp_on_read got %zu bytes", buflen );
361
362    if( rc < 0 ) {
363        tr_nerr( "UTP", "On read evbuffer_add" );
364        return;
365    }
366
367    tr_peerIoSetEnabled( io, TR_DOWN, true );
368    canReadWrapper( io );
369}
370
371static void
372utp_on_write(void *closure, unsigned char *buf, size_t buflen)
373{
374    int rc;
375    tr_peerIo *io = closure;
376    assert( tr_isPeerIo( io ) );
377
378    rc = evbuffer_remove( io->outbuf, buf, buflen );
379    dbgmsg( io, "utp_on_write sending %zu bytes... evbuffer_remove returned %d", buflen, rc );
380    assert( rc == (int)buflen ); /* if this fails, we've corrupted our bookkeeping somewhere */
381    if( rc < (long)buflen ) {
382        tr_nerr( "UTP", "Short write: %d < %ld", rc, (long)buflen);
383    }
384
385    didWriteWrapper( io, buflen );
386}
387
388static size_t
389utp_get_rb_size(void *closure)
390{
391    size_t bytes;
392    tr_peerIo *io = closure;
393    assert( tr_isPeerIo( io ) );
394
395    bytes = tr_bandwidthClamp( &io->bandwidth, TR_DOWN, UTP_READ_BUFFER_SIZE );
396
397    dbgmsg( io, "utp_get_rb_size is saying it's ready to read %zu bytes", bytes );
398    return UTP_READ_BUFFER_SIZE - bytes;
399}
400
401static void
402utp_on_state_change(void *closure, int state)
403{
404    tr_peerIo *io = closure;
405    assert( tr_isPeerIo( io ) );
406
407    if( state == UTP_STATE_CONNECT ) {
408        dbgmsg( io, "utp_on_state_change -- changed to connected" );
409        io->utpSupported = true;
410    } else if( state == UTP_STATE_WRITABLE ) {
411        dbgmsg( io, "utp_on_state_change -- changed to writable" );
412    } else if( state == UTP_STATE_EOF ) {
413        if( io->gotError )
414            io->gotError( io, BEV_EVENT_EOF, io->userData );
415    } else if( state == UTP_STATE_DESTROYING ) {
416        tr_nerr( "UTP", "Impossible state UTP_STATE_DESTROYING" );
417        return;
418    } else {
419        tr_nerr( "UTP", "Unknown state %d", state );
420    }
421}
422
423static void
424utp_on_error(void *closure, int errcode)
425{
426    tr_peerIo *io = closure;
427    assert( tr_isPeerIo( io ) );
428
429    dbgmsg( io, "utp_on_error -- errcode is %d", errcode );
430
431    if( io->gotError ) {
432        errno = errcode;
433        io->gotError( io, BEV_EVENT_ERROR, io->userData );
434    }
435}
436
437static void
438utp_on_overhead(void *closure, bool send, size_t count, int type UNUSED)
439{
440    tr_peerIo *io = closure;
441    assert( tr_isPeerIo( io ) );
442
443    dbgmsg( io, "utp_on_overhead -- count is %zu", count );
444
445    tr_bandwidthUsed( &io->bandwidth, send ? TR_UP : TR_DOWN,
446                      count, false, tr_time_msec() );
447}
448
449static struct UTPFunctionTable utp_function_table = {
450    .on_read = utp_on_read,
451    .on_write = utp_on_write,
452    .get_rb_size = utp_get_rb_size,
453    .on_state = utp_on_state_change,
454    .on_error = utp_on_error,
455    .on_overhead = utp_on_overhead
456};
457
458
459/* Dummy UTP callbacks. */
460/* We switch a UTP socket to use these after the associated peerIo has been
461   destroyed -- see io_dtor. */
462
463static void
464dummy_read( void * closure UNUSED, const unsigned char *buf UNUSED, size_t buflen UNUSED )
465{
466    /* This cannot happen, as far as I'm aware. */
467    tr_nerr( "UTP", "On_read called on closed socket" );
468
469}
470
471static void
472dummy_write(void * closure UNUSED, unsigned char *buf, size_t buflen)
473{
474    /* This can very well happen if we've shut down a peer connection that
475       had unflushed buffers.  Complain and send zeroes. */
476    tr_ndbg( "UTP", "On_write called on closed socket" );
477    memset( buf, 0, buflen );
478}
479
480static size_t
481dummy_get_rb_size( void * closure UNUSED )
482{
483    return 0;
484}
485
486static void
487dummy_on_state_change(void * closure UNUSED, int state UNUSED )
488{
489    return;
490}
491
492static void
493dummy_on_error( void * closure UNUSED, int errcode UNUSED )
494{
495    return;
496}
497
498static void
499dummy_on_overhead( void *closure UNUSED, bool send UNUSED, size_t count UNUSED, int type UNUSED )
500{
501    return;
502}
503
504static struct UTPFunctionTable dummy_utp_function_table = {
505    .on_read = dummy_read,
506    .on_write = dummy_write,
507    .get_rb_size = dummy_get_rb_size,
508    .on_state = dummy_on_state_change,
509    .on_error = dummy_on_error,
510    .on_overhead = dummy_on_overhead
511};
512
513#endif /* #ifdef WITH_UTP */
514
515static tr_peerIo*
516tr_peerIoNew( tr_session       * session,
517              tr_bandwidth     * parent,
518              const tr_address * addr,
519              tr_port            port,
520              const uint8_t    * torrentHash,
521              bool               isIncoming,
522              bool               isSeed,
523              int                socket,
524              struct UTPSocket * utp_socket)
525{
526    tr_peerIo * io;
527
528    assert( session != NULL );
529    assert( session->events != NULL );
530    assert( tr_isBool( isIncoming ) );
531    assert( tr_isBool( isSeed ) );
532    assert( tr_amInEventThread( session ) );
533    assert( (socket < 0) == (utp_socket != NULL) );
534#ifndef WITH_UTP
535    assert( socket >= 0 );
536#endif
537
538    if( socket >= 0 ) {
539        tr_netSetTOS( socket, session->peerSocketTOS );
540        maybeSetCongestionAlgorithm( socket, session->peer_congestion_algorithm );
541    }
542
543    io = tr_new0( tr_peerIo, 1 );
544    io->magicNumber = PEER_IO_MAGIC_NUMBER;
545    io->refCount = 1;
546    io->crypto = tr_cryptoNew( torrentHash, isIncoming );
547    io->session = session;
548    io->addr = *addr;
549    io->isSeed = isSeed;
550    io->port = port;
551    io->socket = socket;
552    io->utp_socket = utp_socket;
553    io->isIncoming = isIncoming != 0;
554    io->timeCreated = tr_time( );
555    io->inbuf = evbuffer_new( );
556    io->outbuf = evbuffer_new( );
557    tr_bandwidthConstruct( &io->bandwidth, session, parent );
558    tr_bandwidthSetPeer( &io->bandwidth, io );
559    dbgmsg( io, "bandwidth is %p; its parent is %p", &io->bandwidth, parent );
560    dbgmsg( io, "socket is %d, utp_socket is %p", socket, utp_socket );
561
562    if( io->socket >= 0 ) {
563        io->event_read = event_new( session->event_base,
564                                    io->socket, EV_READ, event_read_cb, io );
565        io->event_write = event_new( session->event_base,
566                                     io->socket, EV_WRITE, event_write_cb, io );
567    }
568#ifdef WITH_UTP
569    else {
570        UTP_SetSockopt( utp_socket, SO_RCVBUF, UTP_READ_BUFFER_SIZE );
571        dbgmsg( io, "%s", "calling UTP_SetCallbacks &utp_function_table" );
572        UTP_SetCallbacks( utp_socket,
573                          &utp_function_table,
574                          io );
575        if( !isIncoming ) {
576            dbgmsg( io, "%s", "calling UTP_Connect" );
577            UTP_Connect( utp_socket );
578        }
579    }
580#endif
581
582    return io;
583}
584
585tr_peerIo*
586tr_peerIoNewIncoming( tr_session        * session,
587                      tr_bandwidth      * parent,
588                      const tr_address  * addr,
589                      tr_port             port,
590                      int                 fd,
591                      struct UTPSocket  * utp_socket )
592{
593    assert( session );
594    assert( tr_address_is_valid( addr ) );
595
596    return tr_peerIoNew( session, parent, addr, port, NULL, true, false,
597                         fd, utp_socket );
598}
599
600tr_peerIo*
601tr_peerIoNewOutgoing( tr_session        * session,
602                      tr_bandwidth      * parent,
603                      const tr_address  * addr,
604                      tr_port             port,
605                      const uint8_t     * torrentHash,
606                      bool                isSeed,
607                      bool                utp )
608{
609    int fd = -1;
610    struct UTPSocket *utp_socket = NULL;
611
612    assert( session );
613    assert( tr_address_is_valid( addr ) );
614    assert( torrentHash );
615
616    if( utp )
617        utp_socket = tr_netOpenPeerUTPSocket( session, addr, port, isSeed );
618
619    if( !utp_socket ) {
620        fd = tr_netOpenPeerSocket( session, addr, port, isSeed );
621        dbgmsg( NULL, "tr_netOpenPeerSocket returned fd %d", fd );
622    }
623
624    if( fd < 0 && utp_socket == NULL )
625        return NULL;
626
627    return tr_peerIoNew( session, parent, addr, port,
628                         torrentHash, false, isSeed, fd, utp_socket );
629}
630
631/***
632****
633***/
634
635static void
636event_enable( tr_peerIo * io, short event )
637{
638    assert( tr_amInEventThread( io->session ) );
639    assert( io->session != NULL );
640    assert( io->session->events != NULL );
641
642    if( io->socket < 0 )
643        return;
644
645    assert( io->session->events != NULL );
646    assert( event_initialized( io->event_read ) );
647    assert( event_initialized( io->event_write ) );
648
649    if( ( event & EV_READ ) && ! ( io->pendingEvents & EV_READ ) )
650    {
651        dbgmsg( io, "enabling libevent ready-to-read polling" );
652        event_add( io->event_read, NULL );
653        io->pendingEvents |= EV_READ;
654    }
655
656    if( ( event & EV_WRITE ) && ! ( io->pendingEvents & EV_WRITE ) )
657    {
658        dbgmsg( io, "enabling libevent ready-to-write polling" );
659        event_add( io->event_write, NULL );
660        io->pendingEvents |= EV_WRITE;
661    }
662}
663
664static void
665event_disable( struct tr_peerIo * io, short event )
666{
667    assert( tr_amInEventThread( io->session ) );
668    assert( io->session != NULL );
669
670    if( io->socket < 0 )
671        return;
672
673    assert( io->session->events != NULL );
674    assert( event_initialized( io->event_read ) );
675    assert( event_initialized( io->event_write ) );
676
677    if( ( event & EV_READ ) && ( io->pendingEvents & EV_READ ) )
678    {
679        dbgmsg( io, "disabling libevent ready-to-read polling" );
680        event_del( io->event_read );
681        io->pendingEvents &= ~EV_READ;
682    }
683
684    if( ( event & EV_WRITE ) && ( io->pendingEvents & EV_WRITE ) )
685    {
686        dbgmsg( io, "disabling libevent ready-to-write polling" );
687        event_del( io->event_write );
688        io->pendingEvents &= ~EV_WRITE;
689    }
690}
691
692void
693tr_peerIoSetEnabled( tr_peerIo    * io,
694                     tr_direction   dir,
695                     bool           isEnabled )
696{
697    const short event = dir == TR_UP ? EV_WRITE : EV_READ;
698
699    assert( tr_isPeerIo( io ) );
700    assert( tr_isDirection( dir ) );
701    assert( tr_amInEventThread( io->session ) );
702    assert( io->session->events != NULL );
703
704    if( isEnabled )
705        event_enable( io, event );
706    else
707        event_disable( io, event );
708}
709
710/***
711****
712***/
713static void
714io_close_socket( tr_peerIo * io )
715{
716    if( io->socket >= 0 ) {
717        tr_netClose( io->session, io->socket );
718        io->socket = -1;
719        event_free( io->event_read );
720        event_free( io->event_write );
721    }
722
723#ifdef WITH_UTP
724    if( io->utp_socket ) {
725        UTP_SetCallbacks( io->utp_socket,
726                          &dummy_utp_function_table,
727                          NULL );
728        UTP_Close( io->utp_socket );
729
730        io->utp_socket = NULL;
731    }
732#endif
733}
734
735static void
736io_dtor( void * vio )
737{
738    tr_peerIo * io = vio;
739
740    assert( tr_isPeerIo( io ) );
741    assert( tr_amInEventThread( io->session ) );
742    assert( io->session->events != NULL );
743
744    dbgmsg( io, "in tr_peerIo destructor" );
745    event_disable( io, EV_READ | EV_WRITE );
746    tr_bandwidthDestruct( &io->bandwidth );
747    evbuffer_free( io->outbuf );
748    evbuffer_free( io->inbuf );
749    io_close_socket( io );
750    tr_cryptoFree( io->crypto );
751    tr_list_free( &io->outbuf_datatypes, tr_free );
752
753    memset( io, ~0, sizeof( tr_peerIo ) );
754    tr_free( io );
755}
756
757static void
758tr_peerIoFree( tr_peerIo * io )
759{
760    if( io )
761    {
762        dbgmsg( io, "in tr_peerIoFree" );
763        io->canRead = NULL;
764        io->didWrite = NULL;
765        io->gotError = NULL;
766        tr_runInEventThread( io->session, io_dtor, io );
767    }
768}
769
770void
771tr_peerIoRefImpl( const char * file, int line, tr_peerIo * io )
772{
773    assert( tr_isPeerIo( io ) );
774
775    dbgmsg( io, "%s:%d is incrementing the IO's refcount from %d to %d",
776                file, line, io->refCount, io->refCount+1 );
777
778    ++io->refCount;
779}
780
781void
782tr_peerIoUnrefImpl( const char * file, int line, tr_peerIo * io )
783{
784    assert( tr_isPeerIo( io ) );
785
786    dbgmsg( io, "%s:%d is decrementing the IO's refcount from %d to %d",
787                file, line, io->refCount, io->refCount-1 );
788
789    if( !--io->refCount )
790        tr_peerIoFree( io );
791}
792
793const tr_address*
794tr_peerIoGetAddress( const tr_peerIo * io, tr_port   * port )
795{
796    assert( tr_isPeerIo( io ) );
797
798    if( port )
799        *port = io->port;
800
801    return &io->addr;
802}
803
804const char*
805tr_peerIoAddrStr( const tr_address * addr, tr_port port )
806{
807    static char buf[512];
808    tr_snprintf( buf, sizeof( buf ), "[%s]:%u", tr_address_to_string( addr ), ntohs( port ) );
809    return buf;
810}
811
812const char* tr_peerIoGetAddrStr( const tr_peerIo * io )
813{
814    return tr_isPeerIo( io ) ? tr_peerIoAddrStr( &io->addr, io->port ) : "error";
815}
816
817void
818tr_peerIoSetIOFuncs( tr_peerIo        * io,
819                     tr_can_read_cb     readcb,
820                     tr_did_write_cb    writecb,
821                     tr_net_error_cb    errcb,
822                     void             * userData )
823{
824    io->canRead = readcb;
825    io->didWrite = writecb;
826    io->gotError = errcb;
827    io->userData = userData;
828}
829
830void
831tr_peerIoClear( tr_peerIo * io )
832{
833    tr_peerIoSetIOFuncs( io, NULL, NULL, NULL, NULL );
834    tr_peerIoSetEnabled( io, TR_UP, false );
835    tr_peerIoSetEnabled( io, TR_DOWN, false );
836}
837
838int
839tr_peerIoReconnect( tr_peerIo * io )
840{
841    short int pendingEvents;
842    tr_session * session;
843
844    assert( tr_isPeerIo( io ) );
845    assert( !tr_peerIoIsIncoming( io ) );
846
847    session = tr_peerIoGetSession( io );
848
849    pendingEvents = io->pendingEvents;
850    event_disable( io, EV_READ | EV_WRITE );
851
852    io_close_socket( io );
853
854    io->socket = tr_netOpenPeerSocket( session, &io->addr, io->port, io->isSeed );
855    io->event_read = event_new( session->event_base, io->socket, EV_READ, event_read_cb, io );
856    io->event_write = event_new( session->event_base, io->socket, EV_WRITE, event_write_cb, io );
857
858    if( io->socket >= 0 )
859    {
860        event_enable( io, pendingEvents );
861        tr_netSetTOS( io->socket, session->peerSocketTOS );
862        maybeSetCongestionAlgorithm( io->socket, session->peer_congestion_algorithm );
863        return 0;
864    }
865
866    return -1;
867}
868
869/**
870***
871**/
872
873void
874tr_peerIoSetTorrentHash( tr_peerIo *     io,
875                         const uint8_t * hash )
876{
877    assert( tr_isPeerIo( io ) );
878
879    tr_cryptoSetTorrentHash( io->crypto, hash );
880}
881
882const uint8_t*
883tr_peerIoGetTorrentHash( tr_peerIo * io )
884{
885    assert( tr_isPeerIo( io ) );
886    assert( io->crypto );
887
888    return tr_cryptoGetTorrentHash( io->crypto );
889}
890
891int
892tr_peerIoHasTorrentHash( const tr_peerIo * io )
893{
894    assert( tr_isPeerIo( io ) );
895    assert( io->crypto );
896
897    return tr_cryptoHasTorrentHash( io->crypto );
898}
899
900/**
901***
902**/
903
904void
905tr_peerIoSetPeersId( tr_peerIo *     io,
906                     const uint8_t * peer_id )
907{
908    assert( tr_isPeerIo( io ) );
909
910    if( ( io->peerIdIsSet = peer_id != NULL ) )
911        memcpy( io->peerId, peer_id, 20 );
912    else
913        memset( io->peerId, 0, 20 );
914}
915
916/**
917***
918**/
919
920static unsigned int
921getDesiredOutputBufferSize( const tr_peerIo * io, uint64_t now )
922{
923    /* this is all kind of arbitrary, but what seems to work well is
924     * being large enough to hold the next 20 seconds' worth of input,
925     * or a few blocks, whichever is bigger.
926     * It's okay to tweak this as needed */
927    const unsigned int currentSpeed_Bps = tr_bandwidthGetPieceSpeed_Bps( &io->bandwidth, now, TR_UP );
928    const unsigned int period = 15u; /* arbitrary */
929    /* the 3 is arbitrary; the .5 is to leave room for messages */
930    static const unsigned int ceiling =  (unsigned int)( MAX_BLOCK_SIZE * 3.5 );
931    return MAX( ceiling, currentSpeed_Bps*period );
932}
933
934size_t
935tr_peerIoGetWriteBufferSpace( const tr_peerIo * io, uint64_t now )
936{
937    const size_t desiredLen = getDesiredOutputBufferSize( io, now );
938    const size_t currentLen = evbuffer_get_length( io->outbuf );
939    size_t freeSpace = 0;
940
941    if( desiredLen > currentLen )
942        freeSpace = desiredLen - currentLen;
943
944    return freeSpace;
945}
946
947/**
948***
949**/
950
951void
952tr_peerIoSetEncryption( tr_peerIo * io, uint32_t encryptionMode )
953{
954    assert( tr_isPeerIo( io ) );
955    assert( encryptionMode == PEER_ENCRYPTION_NONE
956         || encryptionMode == PEER_ENCRYPTION_RC4 );
957
958    io->encryptionMode = encryptionMode;
959}
960
961/**
962***
963**/
964
965static void
966addDatatype( tr_peerIo * io, size_t byteCount, bool isPieceData )
967{
968    struct tr_datatype * d;
969
970    d = tr_new( struct tr_datatype, 1 );
971    d->isPieceData = isPieceData != 0;
972    d->length = byteCount;
973    tr_list_append( &io->outbuf_datatypes, d );
974}
975
976static struct evbuffer_iovec *
977evbuffer_peek_all( struct evbuffer * buf, size_t * setme_vecCount )
978{
979    const size_t byteCount = evbuffer_get_length( buf );
980    const int vecCount = evbuffer_peek( buf, byteCount, NULL, NULL, 0 );
981    struct evbuffer_iovec * iovec = tr_new0( struct evbuffer_iovec, vecCount );
982    const int n = evbuffer_peek( buf, byteCount, NULL, iovec, vecCount );
983    assert( n == vecCount );
984    *setme_vecCount = n;
985    return iovec;
986}
987
988static void
989maybeEncryptBuffer( tr_peerIo * io, struct evbuffer * buf )
990{
991    if( io->encryptionMode == PEER_ENCRYPTION_RC4 )
992    {
993        size_t i, n;
994        struct evbuffer_iovec * iovec = evbuffer_peek_all( buf, &n );
995
996        for( i=0; i<n; ++i )
997            tr_cryptoEncrypt( io->crypto, iovec[i].iov_len, iovec[i].iov_base, iovec[i].iov_base );
998
999        tr_free( iovec );
1000    }
1001}
1002
1003void
1004tr_peerIoWriteBuf( tr_peerIo * io, struct evbuffer * buf, bool isPieceData )
1005{
1006    const size_t byteCount = evbuffer_get_length( buf );
1007    maybeEncryptBuffer( io, buf );
1008    evbuffer_add_buffer( io->outbuf, buf );
1009    addDatatype( io, byteCount, isPieceData );
1010}
1011
1012void
1013tr_peerIoWriteBytes( tr_peerIo * io, const void * bytes, size_t byteCount, bool isPieceData )
1014{
1015    struct evbuffer * buf = evbuffer_new( );
1016    evbuffer_add( buf, bytes, byteCount );
1017    tr_peerIoWriteBuf( io, buf, isPieceData );
1018    evbuffer_free( buf );
1019}
1020
1021/***
1022****
1023***/
1024
1025void
1026evbuffer_add_uint8( struct evbuffer * outbuf, uint8_t byte )
1027{
1028    evbuffer_add( outbuf, &byte, 1 );
1029}
1030
1031void
1032evbuffer_add_uint16( struct evbuffer * outbuf, uint16_t addme_hs )
1033{
1034    const uint16_t ns = htons( addme_hs );
1035    evbuffer_add( outbuf, &ns, sizeof( ns ) );
1036}
1037
1038void
1039evbuffer_add_uint32( struct evbuffer * outbuf, uint32_t addme_hl )
1040{
1041    const uint32_t nl = htonl( addme_hl );
1042    evbuffer_add( outbuf, &nl, sizeof( nl ) );
1043}
1044
1045void
1046evbuffer_add_uint64( struct evbuffer * outbuf, uint64_t addme_hll )
1047{
1048    const uint64_t nll = tr_htonll( addme_hll );
1049    evbuffer_add( outbuf, &nll, sizeof( nll ) );
1050}
1051
1052/***
1053****
1054***/
1055
1056void
1057tr_peerIoReadBytes( tr_peerIo * io, struct evbuffer * inbuf, void * bytes, size_t byteCount )
1058{
1059    assert( tr_isPeerIo( io ) );
1060    assert( evbuffer_get_length( inbuf )  >= byteCount );
1061
1062    switch( io->encryptionMode )
1063    {
1064        case PEER_ENCRYPTION_NONE:
1065            evbuffer_remove( inbuf, bytes, byteCount );
1066            break;
1067
1068        case PEER_ENCRYPTION_RC4:
1069            evbuffer_remove( inbuf, bytes, byteCount );
1070            tr_cryptoDecrypt( io->crypto, byteCount, bytes, bytes );
1071            break;
1072
1073        default:
1074            assert( 0 );
1075    }
1076}
1077
1078void
1079tr_peerIoReadUint16( tr_peerIo        * io,
1080                     struct evbuffer  * inbuf,
1081                     uint16_t         * setme )
1082{
1083    uint16_t tmp;
1084    tr_peerIoReadBytes( io, inbuf, &tmp, sizeof( uint16_t ) );
1085    *setme = ntohs( tmp );
1086}
1087
1088void tr_peerIoReadUint32( tr_peerIo        * io,
1089                          struct evbuffer  * inbuf,
1090                          uint32_t         * setme )
1091{
1092    uint32_t tmp;
1093    tr_peerIoReadBytes( io, inbuf, &tmp, sizeof( uint32_t ) );
1094    *setme = ntohl( tmp );
1095}
1096
1097void
1098tr_peerIoDrain( tr_peerIo       * io,
1099                struct evbuffer * inbuf,
1100                size_t            byteCount )
1101{
1102    void * buf = tr_sessionGetBuffer( io->session );
1103    const size_t buflen = SESSION_BUFFER_SIZE;
1104
1105    while( byteCount > 0 )
1106    {
1107        const size_t thisPass = MIN( byteCount, buflen );
1108        tr_peerIoReadBytes( io, inbuf, buf, thisPass );
1109        byteCount -= thisPass;
1110    }
1111
1112    tr_sessionReleaseBuffer( io->session );
1113}
1114
1115/***
1116****
1117***/
1118
1119static int
1120tr_peerIoTryRead( tr_peerIo * io, size_t howmuch )
1121{
1122    int res = 0;
1123
1124    if(( howmuch = tr_bandwidthClamp( &io->bandwidth, TR_DOWN, howmuch )))
1125    {
1126        if( io->utp_socket != NULL ) /* utp peer connection */
1127        {
1128            /* UTP_RBDrained notifies libutp that your read buffer is emtpy.
1129             * It opens up the congestion window by sending an ACK (soonish)
1130             * if one was not going to be sent. */
1131            if( evbuffer_get_length( io->inbuf ) == 0 )
1132                UTP_RBDrained( io->utp_socket );
1133        }
1134        else /* tcp peer connection */
1135        {
1136            int e;
1137
1138            EVUTIL_SET_SOCKET_ERROR( 0 );
1139            res = evbuffer_read( io->inbuf, io->socket, (int)howmuch );
1140            e = EVUTIL_SOCKET_ERROR( );
1141
1142            dbgmsg( io, "read %d from peer (%s)", res, (res==-1?strerror(e):"") );
1143
1144            if( evbuffer_get_length( io->inbuf ) )
1145                canReadWrapper( io );
1146
1147            if( ( res <= 0 ) && ( io->gotError ) && ( e != EAGAIN ) && ( e != EINTR ) && ( e != EINPROGRESS ) )
1148            {
1149                char errstr[512];
1150                short what = BEV_EVENT_READING | BEV_EVENT_ERROR;
1151                if( res == 0 )
1152                    what |= BEV_EVENT_EOF;
1153                tr_net_strerror( errstr, sizeof( errstr ), e );
1154                dbgmsg( io, "tr_peerIoTryRead got an error. res is %d, what is %hd, errno is %d (%s)", res, what, e, errstr );
1155                io->gotError( io, what, io->userData );
1156            }
1157        }
1158    }
1159
1160    return res;
1161}
1162
1163static int
1164tr_peerIoTryWrite( tr_peerIo * io, size_t howmuch )
1165{
1166    int n = 0;
1167    const size_t old_len = evbuffer_get_length( io->outbuf );
1168    dbgmsg( io, "in tr_peerIoTryWrite %zu", howmuch );
1169
1170    if( howmuch > old_len )
1171        howmuch = old_len;
1172
1173    if(( howmuch = tr_bandwidthClamp( &io->bandwidth, TR_UP, howmuch )))
1174    {
1175        if( io->utp_socket != NULL ) /* utp peer connection */
1176        {
1177            const size_t old_len = evbuffer_get_length( io->outbuf );
1178            UTP_Write( io->utp_socket, howmuch );
1179            n = old_len - evbuffer_get_length( io->outbuf );
1180        }
1181        else
1182        {
1183            int e;
1184
1185            EVUTIL_SET_SOCKET_ERROR( 0 );
1186            n = tr_evbuffer_write( io, io->socket, howmuch );
1187            e = EVUTIL_SOCKET_ERROR( );
1188
1189            if( n > 0 )
1190                didWriteWrapper( io, n );
1191
1192            if( ( n < 0 ) && ( io->gotError ) && e && ( e != EPIPE ) && ( e != EAGAIN ) && ( e != EINTR ) && ( e != EINPROGRESS ) )
1193            {
1194                char errstr[512];
1195                const short what = BEV_EVENT_WRITING | BEV_EVENT_ERROR;
1196
1197                tr_net_strerror( errstr, sizeof( errstr ), e );
1198                dbgmsg( io, "tr_peerIoTryWrite got an error. res is %d, what is %hd, errno is %d (%s)", n, what, e, errstr );
1199
1200                if( io->gotError != NULL )
1201                    io->gotError( io, what, io->userData );
1202            }
1203        }
1204    }
1205
1206    return n;
1207}
1208
1209int
1210tr_peerIoFlush( tr_peerIo  * io, tr_direction dir, size_t limit )
1211{
1212    int bytesUsed = 0;
1213
1214    assert( tr_isPeerIo( io ) );
1215    assert( tr_isDirection( dir ) );
1216
1217    if( dir == TR_DOWN )
1218        bytesUsed = tr_peerIoTryRead( io, limit );
1219    else
1220        bytesUsed = tr_peerIoTryWrite( io, limit );
1221
1222    dbgmsg( io, "flushing peer-io, direction %d, limit %zu, bytesUsed %d", (int)dir, limit, bytesUsed );
1223    return bytesUsed;
1224}
1225
1226int
1227tr_peerIoFlushOutgoingProtocolMsgs( tr_peerIo * io )
1228{
1229    size_t byteCount = 0;
1230    tr_list * it;
1231
1232    /* count up how many bytes are used by non-piece-data messages
1233       at the front of our outbound queue */
1234    for( it=io->outbuf_datatypes; it!=NULL; it=it->next )
1235    {
1236        struct tr_datatype * d = it->data;
1237
1238        if( d->isPieceData )
1239            break;
1240
1241        byteCount += d->length;
1242    }
1243
1244    return tr_peerIoFlush( io, TR_UP, byteCount );
1245}
Note: See TracBrowser for help on using the repository browser.