Issue |
ESAIM: Proc.
Volume 46, November 2014
ECIT 2012, 19th European Conference on Iteration Theory
|
|
---|---|---|
Page(s) | 111 - 124 | |
DOI | https://doi.org/10.1051/proc/201446010 | |
Published online | 05 December 2014 |
Synchronization and information transmission in networks
1 Instituto Superior de Engenharia de
Lisboa - ISEL, ADM and CIMA-UE, Rua
Conselheiro Emdio Navarro, 1, 1959-007
Lisboa,
Portugal
acilina@adm.isel.pt
2 Instituto Superior de Engenharia de
Lisboa - ISEL, ADM and CEAUL, Rua
Conselheiro Emdio Navarro, 1, 1959-007
Lisboa,
Portugal
jrocha@adm.isel.pt
The amount of information produced by a network may be measured by the mutual information rate. This measure, the Kolmogorov-Sinai entropy and the synchronization interval are expressed in terms of the transversal Lyapunov exponents. Thus, these concepts are related and we proved that the larger the synchronization is, the larger the rate with which information is exchanged between nodes in the network. In fact, as the coupling parameter increases, the mutual information rate increases to a maximum at the synchronization interval and then decreases. Moreover, the Kolmogorov-Sinai entropy decreases until reaching a minimum at the synchronization interval and then increases. We present some numerical simulations considering two different versions of coupling two maps, a complete network and a lattice, which confirmed our theoretical results.
Résumé
La quantité d’information produite par le réseau, peut être mesurée par la taux mutuelle d’information. Cette mesure, l’entropie de Kolmogorov-Sinai et l’intervalle de synchronisation sont exprimés en termes des exposants de Lyapunov transversales. Ainsi, ces concepts sont liés et nous avons prouvé que plus la synchronisation est élevée, plus grand est la vitesse à laquelle l’information est échangée entre les noeuds du réseau. En fait, si le paramètre de couplage augmente, le taux mutuelle d’information augmente jusqu’à un maximum, à l’intervalle de synchronisation et, diminue ensuite. En outre, l’entropie de Kolmogorov-Sinai diminue jusqu’à atteindre un minimum, à l’intervalle de synchronisation et, ensuite elle augmente. Nous présentons aussi, quelques simulations numériques en considérant deux versions diferentes de coupler deux systèmes, un réseau complet et un treillis, qui ont confirmé nos résultats théoriques.
Mathematics Subject Classification: 34D06 / 94A15 / 28D20 / 05C82 / 03G10
Key words: Synchronization / information theory / Lyapunov exponents / mutual information rate / Kolmogorov-Sinai entropy / complex networks
Mots clés : Synchronisation / theorie d’information / exposants de Lyapunov / taux mutuelle d’information / entropie de Kolmogorov-Sinai / réseau complexes
© EDP Sciences, SMAI 2014
Current usage metrics show cumulative count of Article Views (full-text article views including HTML views, PDF and ePub downloads, according to the available data) and Abstracts Views on Vision4Press platform.
Data correspond to usage on the plateform after 2015. The current usage metrics is available 48-96 hours after online publication and is updated daily on week days.
Initial download of the metrics may take a while.