Как найти пропускную способность канала связи

From Wikipedia, the free encyclopedia

Channel capacity, in electrical engineering, computer science, and information theory, is the tight upper bound on the rate at which information can be reliably transmitted over a communication channel.

Following the terms of the noisy-channel coding theorem, the channel capacity of a given channel is the highest information rate (in units of information per unit time) that can be achieved with arbitrarily small error probability. [1][2]

Information theory, developed by Claude E. Shannon in 1948, defines the notion of channel capacity and provides a mathematical model by which it may be computed. The key result states that the capacity of the channel, as defined above, is given by the maximum of the mutual information between the input and output of the channel, where the maximization is with respect to the input distribution. [3]

The notion of channel capacity has been central to the development of modern wireline and wireless communication systems, with the advent of novel error correction coding mechanisms that have resulted in achieving performance very close to the limits promised by channel capacity.

Formal definition[edit]

The basic mathematical model for a communication system is the following:

{displaystyle {xrightarrow[{text{Message}}]{W}}{begin{array}{|c|}hline {text{Encoder}}\f_{n}\hline end{array}}{xrightarrow[{mathrm {Encoded atop sequence} }]{X^{n}}}{begin{array}{|c|}hline {text{Channel}}\p(y|x)\hline end{array}}{xrightarrow[{mathrm {Received atop sequence} }]{Y^{n}}}{begin{array}{|c|}hline {text{Decoder}}\g_{n}\hline end{array}}{xrightarrow[{mathrm {Estimated atop message} }]{hat {W}}}}

where:

Let X and Y be modeled as random variables. Furthermore, let p_{{Y|X}}(y|x) be the conditional probability distribution function of Y given X, which is an inherent fixed property of the communication channel. Then the choice of the marginal distribution p_{X}(x) completely determines the joint distribution p_{{X,Y}}(x,y) due to the identity

 p_{{X,Y}}(x,y)=p_{{Y|X}}(y|x),p_{X}(x)

which, in turn, induces a mutual information I(X;Y). The channel capacity is defined as

 C=sup _{{p_{X}(x)}}I(X;Y),

where the supremum is taken over all possible choices of p_{X}(x).

Additivity of channel capacity[edit]

Channel capacity is additive over independent channels.[4] It means that using two independent channels in a combined manner provides the same theoretical capacity as using them independently.
More formally, let p_{{1}} and p_{{2}} be two independent channels modelled as above; p_{{1}} having an input alphabet {displaystyle {mathcal {X}}_{1}} and an output alphabet {displaystyle {mathcal {Y}}_{1}}. Idem for p_{{2}}.
We define the product channel {displaystyle p_{1}times p_{2}} as
{displaystyle forall (x_{1},x_{2})in ({mathcal {X}}_{1},{mathcal {X}}_{2}),;(y_{1},y_{2})in ({mathcal {Y}}_{1},{mathcal {Y}}_{2}),;(p_{1}times p_{2})((y_{1},y_{2})|(x_{1},x_{2}))=p_{1}(y_{1}|x_{1})p_{2}(y_{2}|x_{2})}

This theorem states:

{displaystyle C(p_{1}times p_{2})=C(p_{1})+C(p_{2})}

Proof

We first show that {displaystyle C(p_{1}times p_{2})geq C(p_{1})+C(p_{2})}.

Let X_{1} and X_{2} be two independent random variables. Let Y_{1} be a random variable corresponding to the output of X_{1} through the channel p_{{1}}, and Y_2 for X_{2} through p_{2}.

By definition {displaystyle C(p_{1}times p_{2})=sup _{p_{X_{1},X_{2}}}(I(X_{1},X_{2}:Y_{1},Y_{2}))}.

Since X_{1} and X_{2} are independent, as well as p_{1} and p_{2}, {displaystyle (X_{1},Y_{1})} is independent of {displaystyle (X_{2},Y_{2})}. We can apply the following property of mutual information: {displaystyle I(X_{1},X_{2}:Y_{1},Y_{2})=I(X_{1}:Y_{1})+I(X_{2}:Y_{2})}

For now we only need to find a distribution {displaystyle p_{X_{1},X_{2}}} such that {displaystyle I(X_{1},X_{2}:Y_{1},Y_{2})geq I(X_{1}:Y_{1})+I(X_{2}:Y_{2})}. In fact, pi _{1} and pi _{2}, two probability distributions for X_{1} and X_{2} achieving {displaystyle C(p_{1})} and {displaystyle C(p_{2})}, suffice:

{displaystyle C(p_{1}times p_{2})geq I(X_{1},X_{2}:Y_{1},Y_{2})=I(X_{1}:Y_{1})+I(X_{2}:Y_{2})=C(p_{1})+C(p_{2})}

ie. {displaystyle C(p_{1}times p_{2})geq C(p_{1})+C(p_{2})}

Now let us show that {displaystyle C(p_{1}times p_{2})leq C(p_{1})+C(p_{2})}.

Let {displaystyle pi _{12}} be some distribution for the channel {displaystyle p_{1}times p_{2}} defining (X_{1},X_{2}) and the corresponding output {displaystyle (Y_{1},Y_{2})}. Let {displaystyle {mathcal {X}}_{1}} be the alphabet of X_{1}, {displaystyle {mathcal {Y}}_{1}} for Y_{1}, and analogously {displaystyle {mathcal {X}}_{2}} and {displaystyle {mathcal {Y}}_{2}}.

By definition of mutual information, we have

{displaystyle {begin{aligned}I(X_{1},X_{2}:Y_{1},Y_{2})&=H(Y_{1},Y_{2})-H(Y_{1},Y_{2}|X_{1},X_{2})\&leq H(Y_{1})+H(Y_{2})-H(Y_{1},Y_{2}|X_{1},X_{2})end{aligned}}}

Let us rewrite the last term of entropy.

{displaystyle H(Y_{1},Y_{2}|X_{1},X_{2})=sum _{(x_{1},x_{2})in {mathcal {X}}_{1}times {mathcal {X}}_{2}}mathbb {P} (X_{1},X_{2}=x_{1},x_{2})H(Y_{1},Y_{2}|X_{1},X_{2}=x_{1},x_{2})}

By definition of the product channel, {displaystyle mathbb {P} (Y_{1},Y_{2}=y_{1},y_{2}|X_{1},X_{2}=x_{1},x_{2})=mathbb {P} (Y_{1}=y_{1}|X_{1}=x_{1})mathbb {P} (Y_{2}=y_{2}|X_{2}=x_{2})}.
For a given pair (x_{1},x_{2}), we can rewrite {displaystyle H(Y_{1},Y_{2}|X_{1},X_{2}=x_{1},x_{2})} as:

{displaystyle {begin{aligned}H(Y_{1},Y_{2}|X_{1},X_{2}=x_{1},x_{2})&=sum _{(y_{1},y_{2})in {mathcal {Y}}_{1}times {mathcal {Y}}_{2}}mathbb {P} (Y_{1},Y_{2}=y_{1},y_{2}|X_{1},X_{2}=x_{1},x_{2})log(mathbb {P} (Y_{1},Y_{2}=y_{1},y_{2}|X_{1},X_{2}=x_{1},x_{2}))\&=sum _{(y_{1},y_{2})in {mathcal {Y}}_{1}times {mathcal {Y}}_{2}}mathbb {P} (Y_{1},Y_{2}=y_{1},y_{2}|X_{1},X_{2}=x_{1},x_{2})[log(mathbb {P} (Y_{1}=y_{1}|X_{1}=x_{1}))+log(mathbb {P} (Y_{2}=y_{2}|X_{2}=x_{2}))]\&=H(Y_{1}|X_{1}=x_{1})+H(Y_{2}|X_{2}=x_{2})end{aligned}}}

By summing this equality over all (x_{1},x_{2}), we obtain
{displaystyle H(Y_{1},Y_{2}|X_{1},X_{2})=H(Y_{1}|X_{1})+H(Y_{2}|X_{2})}.

We can now give an upper bound over mutual information:

{displaystyle {begin{aligned}I(X_{1},X_{2}:Y_{1},Y_{2})&leq H(Y_{1})+H(Y_{2})-H(Y_{1}|X_{1})-H(Y_{2}|X_{2})\&=I(X_{1}:Y_{1})+I(X_{2}:Y_{2})end{aligned}}}

This relation is preserved at the supremum. Therefore

{displaystyle C(p_{1}times p_{2})leq C(p_{1})+C(p_{2})}

Combining the two inequalities we proved, we obtain the result of the theorem:

{displaystyle C(p_{1}times p_{2})=C(p_{1})+C(p_{2})}

Shannon capacity of a graph[edit]

If G is an undirected graph, it can be used to define a communications channel in which the symbols are the graph vertices, and two codewords may be confused with each other if their symbols in each position are equal or adjacent. The computational complexity of finding the Shannon capacity of such a channel remains open, but it can be upper bounded by another important graph invariant, the Lovász number.[5]

Noisy-channel coding theorem[edit]

The noisy-channel coding theorem states that for any error probability ε > 0 and for any transmission rate R less than the channel capacity C, there is an encoding and decoding scheme transmitting data at rate R whose error probability is less than ε, for a sufficiently large block length. Also, for any rate greater than the channel capacity, the probability of error at the receiver goes to 0.5 as the block length goes to infinity.

Example application[edit]

An application of the channel capacity concept to an additive white Gaussian noise (AWGN) channel with B Hz bandwidth and signal-to-noise ratio S/N is the Shannon–Hartley theorem:

C=Blog _{2}left(1+{frac  {S}{N}}right)

C is measured in bits per second if the logarithm is taken in base 2, or nats per second if the natural logarithm is used, assuming B is in hertz; the signal and noise powers S and N are expressed in a linear power unit (like watts or volts2). Since S/N figures are often cited in dB, a conversion may be needed. For example, a signal-to-noise ratio of 30 dB corresponds to a linear power ratio of 10^{{30/10}}=10^{3}=1000.

Channel capacity in wireless communications[edit]

This section[6] focuses on the single-antenna, point-to-point scenario. For channel capacity in systems with multiple antennas, see the article on MIMO.

Bandlimited AWGN channel[edit]

AWGN channel capacity with the power-limited regime and bandwidth-limited regime indicated. Here, {displaystyle {frac {bar {P}}{N_{0}}}=1}; B and C can be scaled proportionally for other values.

If the average received power is {bar  {P}} [W], the total bandwidth is W in Hertz, and the noise power spectral density is N_{0} [W/Hz], the AWGN channel capacity is

C_{text{AWGN}}=Wlog_2left(1+frac{bar{P}}{N_0 W}right) [bits/s],

where {frac  {{bar  {P}}}{N_{0}W}} is the received signal-to-noise ratio (SNR). This result is known as the Shannon–Hartley theorem.[7]

When the SNR is large (SNR ≫ 0 dB), the capacity Capprox Wlog _{2}{frac  {{bar  {P}}}{N_{0}W}} is logarithmic in power and approximately linear in bandwidth. This is called the bandwidth-limited regime.

When the SNR is small (SNR ≪ 0 dB), the capacity {displaystyle Capprox {frac {bar {P}}{N_{0}ln 2}}} is linear in power but insensitive to bandwidth. This is called the power-limited regime.

The bandwidth-limited regime and power-limited regime are illustrated in the figure.

Frequency-selective AWGN channel[edit]

The capacity of the frequency-selective channel is given by so-called water filling power allocation,

C_{{N_{c}}}=sum _{{n=0}}^{{N_{c}-1}}log _{2}left(1+{frac  {P_{n}^{*}|{bar  {h}}_{n}|^{2}}{N_{0}}}right),

where {displaystyle P_{n}^{*}=max left{left({frac {1}{lambda }}-{frac {N_{0}}{|{bar {h}}_{n}|^{2}}}right),0right}} and |{bar  {h}}_{n}|^{2} is the gain of subchannel n, with lambda chosen to meet the power constraint.

Slow-fading channel[edit]

In a slow-fading channel, where the coherence time is greater than the latency requirement, there is no definite capacity as the maximum rate of reliable communications supported by the channel, log _{2}(1+|h|^{2}SNR), depends on the random channel gain |h|^{2}, which is unknown to the transmitter. If the transmitter encodes data at rate R [bits/s/Hz], there is a non-zero probability that the decoding error probability cannot be made arbitrarily small,

p_{{out}}={mathbb  {P}}(log(1+|h|^{2}SNR)<R),

in which case the system is said to be in outage. With a non-zero probability that the channel is in deep fade, the capacity of the slow-fading channel in strict sense is zero. However, it is possible to determine the largest value of R such that the outage probability p_{{out}} is less than epsilon . This value is known as the epsilon -outage capacity.

Fast-fading channel[edit]

In a fast-fading channel, where the latency requirement is greater than the coherence time and the codeword length spans many coherence periods, one can average over many independent channel fades by coding over a large number of coherence time intervals. Thus, it is possible to achieve a reliable rate of communication of {mathbb  {E}}(log _{2}(1+|h|^{2}SNR)) [bits/s/Hz] and it is meaningful to speak of this value as the capacity of the fast-fading channel.

Feedback Capacity[edit]

Feedback capacity is the greatest rate at which information can be reliably transmitted, per unit time, over a point-to-point communication channel in which the receiver feeds back the channel outputs to the transmitter. Information-theoretic analysis of communication systems that incorporate feedback is more complicated and challenging than without feedback. Possibly, this was the reason C.E. Shannon chose feedback as the subject of the first Shannon Lecture, delivered at the 1973 IEEE International Symposium on Information Theory in Ashkelon, Israel.

The feedback capacity is characterized by the maximum of the directed information between the channel inputs and the channel outputs, where the maximization is with respect to the causal conditioning of the input given the output. The directed information was coined by James Massey[8] in 1990, who showed that its an upper bound on feedback capacity. For memoryless channels, Shannon showed[9] that feedback does not increase the capacity, and the feedback capacity coincides with the channel capacity characterized by the mutual information between the input and the output. The feedback capacity is known as a closed-form expression only for several examples such as: the Trapdoor channel,[10] Ising channel,[11][12] the binary erasure channel with a no-consecutive-ones input constraint, NOST channels.

The basic mathematical model for a communication system is the following:

Communication with feedback

Here is the formal definition of each element (where the only difference with respect to the nonfeedback capacity is the encoder definition):

That is, for each time i there exists a feedback of the previous output {displaystyle Y_{i-1}} such that the encoder has access to all previous outputs {displaystyle Y^{i-1}}. An {displaystyle (2^{nR},n)} code is a pair of encoding and decoding mappings with {displaystyle {mathcal {W}}=[1,2,dots ,2^{nR}]}, and W is uniformly distributed. A rate R is said to be achievable if there exists a sequence of codes {displaystyle (2^{nR},n)} such that the average probability of error: {displaystyle P_{e}^{(n)}triangleq Pr({hat {W}}neq W)} tends to zero as nto infty .

The feedback capacity is denoted by {displaystyle C_{text{feedback}}}, and is defined as the supremum over all achievable rates.

Main results on feedback capacity[edit]

Let X and Y be modeled as random variables. The causal conditioning {displaystyle P(y^{n}||x^{n})triangleq prod _{i=1}^{n}P(y_{i}|y^{i-1},x^{i})} describes the given channel. The choice of the causally conditional distribution {displaystyle P(x^{n}||y^{n-1})triangleq prod _{i=1}^{n}P(x_{i}|x^{i-1},y^{i-1})} determines the joint distribution {displaystyle p_{X^{n},Y^{n}}(x^{n},y^{n})} due to the chain rule for causal conditioning[13] {displaystyle P(y^{n},x^{n})=P(y^{n}||x^{n})P(x^{n}||y^{n-1})} which, in turn, induces a directed information {displaystyle I(X^{N}rightarrow Y^{N})=mathbf {E} left[log {frac {P(Y^{N}||X^{N})}{P(Y^{N})}}right]}.

The feedback capacity is given by

{displaystyle  C_{text{feedback}}=lim _{nto infty }{frac {1}{n}}sup _{P_{X^{n}||Y^{n-1}}}I(X^{n}to Y^{n}),},

where the supremum is taken over all possible choices of {displaystyle P_{X^{n}||Y^{n-1}}(x^{n}||y^{n-1})}.

Gaussian feedback capacity[edit]

When the Gaussian noise is colored, the channel has memory. Consider for instance the simple case on an autoregressive model noise process {displaystyle z_{i}=z_{i-1}+w_{i}} where {displaystyle w_{i}sim N(0,1)} is an i.i.d. process.

Solution techniques[edit]

The feedback capacity is difficult to solve in the general case. There are some techniques that are related to control theory and Markov decision processes if the channel is discrete.

See also[edit]

  • Bandwidth (computing)
  • Bandwidth (signal processing)
  • Bit rate
  • Code rate
  • Error exponent
  • Nyquist rate
  • Negentropy
  • Redundancy
  • Sender, Data compression, Receiver
  • Shannon–Hartley theorem
  • Spectral efficiency
  • Throughput

Advanced Communication Topics[edit]

  • MIMO
  • Cooperative diversity

External links[edit]

  • «Transmission rate of a channel», Encyclopedia of Mathematics, EMS Press, 2001 [1994]
  • AWGN Channel Capacity with various constraints on the channel input (interactive demonstration)

References[edit]

  1. ^ Saleem Bhatti. «Channel capacity». Lecture notes for M.Sc. Data Communication Networks and Distributed Systems D51 — Basic Communications and Networks. Archived from the original on 2007-08-21.
  2. ^ Jim Lesurf. «Signals look like noise!». Information and Measurement, 2nd ed.
  3. ^ Thomas M. Cover, Joy A. Thomas (2006). Elements of Information Theory. John Wiley & Sons, New York. ISBN 9781118585771.
  4. ^ Cover, Thomas M.; Thomas, Joy A. (2006). «Chapter 7: Channel Capacity». Elements of Information Theory (Second ed.). Wiley-Interscience. pp. 206–207. ISBN 978-0-471-24195-9.
  5. ^ Lovász, László (1979), «On the Shannon Capacity of a Graph», IEEE Transactions on Information Theory, IT-25 (1): 1–7, doi:10.1109/tit.1979.1055985.
  6. ^ David Tse, Pramod Viswanath (2005), Fundamentals of Wireless Communication, Cambridge University Press, UK, ISBN 9780521845274
  7. ^ The Handbook of Electrical Engineering. Research & Education Association. 1996. p. D-149. ISBN 9780878919819.
  8. ^ Massey, James (Nov 1990). «Causality, Feedback and Directed Information» (PDF). Proc. 1990 Int. Symp. On Information Theory and Its Applications (ISITA-90), Waikiki, HI.: 303–305.
  9. ^ Shannon, C. (September 1956). «The zero error capacity of a noisy channel». IEEE Transactions on Information Theory. 2 (3): 8–19. doi:10.1109/TIT.1956.1056798.
  10. ^ Permuter, Haim; Cuff, Paul; Van Roy, Benjamin; Weissman, Tsachy (July 2008). «Capacity of the trapdoor channel with feedback» (PDF). IEEE Trans. Inf. Theory. 54 (7): 3150–3165. arXiv:cs/0610047. doi:10.1109/TIT.2008.924681. S2CID 1265.
  11. ^ Elishco, Ohad; Permuter, Haim (September 2014). «Capacity and Coding for the Ising Channel With Feedback». IEEE Transactions on Information Theory. 60 (9): 5138–5149. doi:10.1109/TIT.2014.2331951.
  12. ^ Aharoni, Ziv; Sabag, Oron; Permuter, Haim H. (September 2022). «Feedback Capacity of Ising Channels With Large Alphabet via Reinforcement Learning». IEEE Transactions on Information Theory. 68 (9): 5637–5656. doi:10.1109/TIT.2022.3168729.
  13. ^ Permuter, Haim Henry; Weissman, Tsachy; Goldsmith, Andrea J. (February 2009). «Finite State Channels With Time-Invariant Deterministic Feedback». IEEE Transactions on Information Theory. 55 (2): 644–662. arXiv:cs/0608070. doi:10.1109/TIT.2008.2009849. S2CID 13178.

Пропускная
способность дискретных каналов связи

Пропускной
способностью канала связи называется
максимально возможная скорость передачи
по этому каналу, которая обеспечивается
при источнике с максимальной энтропией.

Еще раз подчеркнем,
пропускная способность – характеристика
канала связи. Для дискретного канала
она зависит от технической скорости
передачи, которая ограничивается полосой
пропускания канала, и от потерь информации.
Последние зависят от помех, действующих
в канале, способов обработки сигналов
в передатчике и приемнике, а также и от
технической скорости передачи. Рассмотрим
с точки зрения пропускной способности
дискретный канал связи без помех и
дискретный канал связи с помехами.

Пропускная
способность дискретного канала без
помех

Докажем, что для
дискретного канала пропускная
способность зависит
от технической скорости передачи.

Известно,
что среднее количество информации,
переносимое одним символом, равно
энтропии символа на входе канала

[бит/символ].

Скорость
передачи информации I`
будет зависеть от количества информации,
приходящейся на один символ

или
энтропии символа H(X)
на входе канала и скорости передачи
элементарных символов сигнала
(электрических
кодовых сигналов)

.

Т.е.:


[бит./с].
(2.6)

Из
выражения (2.6) следует, что пропускная
способность канала связи это действительно
наибольшая теоретически достижимая
для данного канала скорость передачи
информации. От свойства сигнала пропускная
способность не зависит.

Пропускная
способность

представляет
собой максимальное количество информации,
которое можно передать по каналу при
данных условиях за единицу времени.
Математически это записывается в
следующей форме:

(2.7)

где
С
– пропускная способность,


количество информации передаваемое в
единицу времени с помощью входных
сигналов X
и выходных Y.

Запись

означает, что отыскание максимума
выражения (2.7) ведется по всем возможным
источникам сообщений.

Считая,
скорость передачи

заданной и раскрывая значение I`(…)
получим, что максимальная скорость
передачи информации будет обеспечена
при максимальном значении энтропии
сигнала.

Известно,
что максимальное значение энтропии
обеспечивается при равномерном
распределении вероятностей и статисческой
независимости символов алфавита сигнала.
Таким образом:


, (2.8)

количество
букв в алфавите.
Из
формулы видно, что пропускная способность
измеряется в единицах измерения
количества информации за единицу
времени.

Рассмотрим
методику определения пропускной
способности канала связи без помех на
следующем примере.

В
информационном канале без помех для
передачи сообщений используется алфавит
с четырьмя различными символами

=4,
а код каждого сообщения содержит

=2
бита. Длительности всех разрядов,
соответствующих битам одинаковы и равны
одной миллисекунде: tс=
1 мс.

Определить
пропускную способность канала передачи.

Решение.

Для
расчета пропускной способности
дискретного канала без помех используется
выражение (2.12).


.

Скорость
передачи одного символа


,

где


средняя длительность передачи символа.

Так
как код каждого символа содержит 2 бита,
то длительность всех сигналов будет
постоянна и равна

[мс].


.

И,
следовательно


.

Пропускная
способность дискретного канала с
помехами

При определении
пропускной способности канала
предполагается, что задано свойства
канала (структура и уровень сигнала и
помех, вид модуляции, методы кодирования
и декодирования и др.). Эти свойства
определяют статистические связи между
принимаемыми сигналами, которые в свою
очередь выражаются условными вероятностями
вида р(хiyi)
и р(уiхi)
(рис.2.2). При заданных таким образом
свойствах канала максимальную скорость
передачи информации можно обеспечить
выбором оптимального ансамбля сигналов.
При этом накладываются ограничения в
отношении уровня сигнала, его структуры,
спектра, объёма алфавита и др. Выбор
оптимального ансамбля сигналов означает
выбор оптимального распределения
вероятностей р(хi).

В
соответствии с этим пропускная способность
дискретного канала с помехами определяется
как максимальная скорость передачи
информации, которая может быть достигнута
при заданных свойствах канала и наложенных
ограничениях:


.
(2.9)

В
соотношении (2.9) максимум берётся по
всем допустимым распределениям
вероятности р(хi).
Здесь


максимальное число сообщений, которое
может быть передано по каналу за единицу
времени. Величина Vmax
зависит от электрических характеристик
канала и вида модуляции. При передаче
с большой скоростью, т.е. короткими
импульсами, через канал с ограниченной
полосой, недостаточно для неискаженного
воспроизведения этих импульсов возникает
взаимное перекрытия ряда соседних
сигналов, снижающее достоверность
приёма. Предельная удельная скорость
передачи дискретных сигналов, при
которой может быть достигнут безыскаженный
прием, составляет 2 бода на 1 Герц полосы
канала.

Для
двоичного канала Vmax
представляет собой максимально возможную
скорость манипуляции Вmax.
Напомним, что в отсутствие помех Н(XY)=0.
Пропускная способность двоичного канала
равна скорости манипуляции Вmax.

В
дальнейшем будем рассматривать только
такие каналы, которые называют каналами
без памяти. Дискретный
канал
называется
каналом без
памяти
,
если вероятность перехода любого
входного символа в любой выходной не
зависит от того, какие символы передавались
до этого и как они были приняты.

Если
алфавит входных (X)
и выходных (Y)
сигналов состоит из двух символов, то
канал называется двоичным. Диаграмма
переходных вероятностей такого канала
представлена на рис. 2.4.

Алфавит
входных сигналов имеет два символа х0
и
х1
.
Выбранный случайным образом источником
сообщений, один из этих символов подаётся
на вход дискретного канала. На приёме
регистрируется у0
и
y1
. Выходной алфавит тоже имеет два символа.
Символ у0
может быть зарегистрирован при передаче
сигнала х0
. Вероятность такого события – р(y0x0).
Символ у0
может быть зарегистрирован при передаче
сигнала х1
. Вероятность такого события – р(y0x1).
Символ y1
может быть зарегистрирован при передачи
сигналов х0
и
х1
с вероятностями р(y1x0)
и р(y1
x1)
соответственно. Правильному приёму
соответствуют события с вероятностями
появления р(y1x1)
и р(y0x0).
Ошибочный прием символа происходит при
появлении событий с вероятностями
р(y1x0)
и р(y0x1).
Стрелки на рисунке 2.5 показывают, что
возможные события заключаются в переходе
символа х1
в
y1
и х0
в
y0
(это соответствует безошибочному
приему), а также в переходе х1
в y0
и х0
в
y1
(это соответствует ошибочному приему).
Такие переходы характеризуются
соответствующими вероятностями р(y1x1),
р(y0x0),
р(y1x0),
р(y0x1),
а сами вероятности называют переходными.
Переходные вероятности характеризуют
вероятности воспроизведения на выходе
канала переданных символов.

Канал
без памяти называют симметричным, если
соответствующие переходные вероятности
одинаковы, а именно одинаковы вероятности
правильного приёма, а также одинаковы
вероятности любых ошибок. То есть:

Канал с произвольным
объёмом алфавита называется симметричным,
если

(2.11)

В
(2.11)

– объём алфавита сигналов.

Дискретный
канал считается полностью определенным,
если известна скорость передачи отдельных
элементов дискретных сигналов и
определены (переходные) вероятности

.

Переходные
вероятности

и распределение вероятностей р(хi)
позволяют определить апостериорную
неопределённость

не устраняемую полностью при приеме,
так как в канале с помехами возможно
искажение передаваемых сигналов.
Напомним, что

определяется выражением

(2.12)

В выражении 2.12

условная энтропия входного символа

при принятом символе

;
р(хiyj
)
– условная вероятность передачи хi,
если принят yj.
Границы условной энтропии

определяются неравенством

(2.13)

При
чем



при отсутствии помех в канале. Это
означает, что остаточной (апостериорной)
неопределённости нет. Помеха не искажает
передаваемые сигналы. Сообщение на
приеме восстанавливаются полностью и
из них извлекается вся информация.

при
обрыве канала. При обрыве канала
информация по каналу не передается и
неопределенность на приёме не уменьшается.

Таким
образом, при неполной достоверности
сообщений, среднее количество информации
равно разности безусловной энтропии
Н(X)
и условной энтропии

характеризующей остаточную неопределённость
сообщений. И в результате передачи по
каналу одного элемента сообщения X
неопределенность на выходе уменьшиться
в среднем на величину

(2.14)

В
выражении 2.14 условная вероятность

определяется распределением вероятностей

и переходными вероятностями

(2.15)

где q
= 1-р
– вероятность ошибочного приема символа,
р
– вероятность правильного приёма
символа, N
– алфавит сигналов.

Подставляя
(2.15) в выражение (2.9) для пропускной
способности получаем

(2.16)

Максимальное
значение энтропия принимает при равно
вероятных символах сообщения. Т.к. Н(Y)
= log
N,
где N
– алфавит выходных сигналов, то для
пропускной способности можем окончательно
записать

[бит/сек].
(2.17)

Пропускная
способность канала в расчете на один
символ
определяется путем деления С
на количество элементов сообщения,
передаваемых в единицу времени, т.е. на
скорость передачи

.
Пропускная
способность канала в расчете на один
символ
составляет


[бит/символ].
(2.18)

Из
выражения 2.18 следует, что при

и


пропускная
способность симметричного канала равна
нулю. Действительно, представляя значения
q
и p
выражение 2.18 получаем

Этот
случай соответствует обрыву канала.
Физически, это означает, что по каналу
идет передача информации, на выходе
канала её получить невозможно, т.к. при
любом переданном символе xi

все принимаемые символы уj

равновероятные, т.е. р(уj|xi)
= 1/N.
Максимальной пропускная способность
становится при отсутствии помех. В этом
случае вероятность ошибки q
становится равной 0: q
= 0, а вероятность безошибочного приёма
р=
1. Подставляя эти значения в (2.18) получаем

[бит/сек].

В
частном случае двоичного симметричного
канала без памяти, т.е. при N=
2 получаем:

Cс
=
1 + p
log p
+ (1-p)
log (1-p).

Беря
различные значения р,
можем определить пропускную способность
для такого канала.

Проанализируем
пропускную способность симметричного
канала без памяти при N
= 2:

C
=
1 + p
log p
+ (1-p)
log (1-p)

где

— вероятность правильного приема,


— вероятность
ошибки.

C

Из графика (рис.2.2)
видно, что пропускная способность
максимальна, если вероятность ошибки
q равна 0. При
увеличении вероятности q
от 0 до 0,5 пропускная способность С
уменьшается до нуля. В точке q=0,5
пропускная способность равна нулю. Этот
случай соответствует обрыву канала.
При дальнейшем возрастании вероятности
ошибок q пропускная
способность С начинает увеличиваться
и достигает максимума при q=1.
это означает, что все переданные «1» под
воздействием помех переходят в «0», а
все «0» переходят в «1». Поэтому, изменением
полярности на приеме можно полностью
исключить ошибки.

Пропускная
способность
непрерывных
каналов связи

Определение
пропускной способности непрерывного
канала с

белым шумом

Непрерывный
канал связи, как и дискретный,
характеризуется количеством передаваемой
информации и пропускной способностью
– максимально возможной скоростью
передачи информации.

Рассмотрим
непрерывный канал с дискретным временем,
т.е. канал, по которому со скоростью

передаются отсчеты дискретного по
времени и непрерывного по интенсивности
сигнала.

В
соответствии со схемой (рис.2.1)


,

где




дифференциальная энтропия суммы



на выходе непрерывного канала;

– условная
дифференциальная энтропия суммы

при известном входном сигнале

.

Если
помехи в канале связи являются аддитивными,
т.е.

,
то можно показать, что


,

где


дифференциальная энтропия помехи. Тогда
среднее количество информации, переносимое
одним отсчетом, равно


,

а
скорость передачи информации


.

В
частном случае, если средние мощности
сигнала и шума на выходе канала ограничены
(в определенной полосе частот), а
распределение плотности вероятностей

и

являются нормальными (гауссовскими),
то


,


,

где
Рс
и Рп
– средние мощности полезного сигнала

и помехи

на выходе канала;

Рсп

средняя мощность (дисперсия) суммы

(при независимости

и n(t)).

Тогда
пропускная
способность непрерывного канала с
дискретным временем рассчитывается по
формуле:

(2.20)

где
Рс
/Р­п
отношение
сигнал/помеха
на выходе канала связи.

В
полностью непрерывном канале с широкой
полосой пропускания

минимальная скорость передачи отсчетов
определяется в соответствии с теоремой
Котельникова

,
так
что

(2.21)

Это выражение
называется формулой Шеннона, которая
справедлива лишь по отношению к гауссовым
каналам, т.е. к каналам с белым гауссовским
шумом.

Соседние файлы в папке Лекции

  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #
  • #

5.2.2 Пропускная способность канала и количество принятой информации

Определение 5.14 Пропускная способность канала связи — наибольшая теоретически достижимая скорость передачи информации при условии, что погрешность не превосходит заданной величины.

Определение 5.15 Скорость передачи информации — среднее количество информации, передаваемое в единицу времени. Определим выражения для расчета скорости передачи информации и пропускной способности дискретного канала связи.

При передаче каждого символа в среднем по каналу связи проходит количество информации, определяемое по формуле:

I (Y, X) = I (X, Y) = H(X) - H (X/Y) = H(Y) - H (Y/X), (
5.3)

где I (Y, X) — взаимная информация, т.е. количество информации, содержащееся в Y относительно X; H(X) — энтропия источника сообщений; H (X/Y) — условная энтропия, определяющая потерю информации на один символ, связанную с наличием помех и искажений.

При передаче сообщения X_T длительности T, состоящего из n элементарных символов, среднее количество передаваемой информации с учетом симметрии взаимного количества информации равно:

I(Y_T, X_T)=H(X_T)-H(X_T/Y_T) = (
5.4)
H(Y_T)-H(Y_T/X_T) = n[H(X)-H(X/Y)], (
5.5)

где T = nbar{tau}; bar{tau} — среднее время передачи одного символа; n-число символов в сообщении длительностью T.

Для символов равной длительности bar{tau} =tau, в случае неравновероятных символов неравной длительности  bar{tau}=sum_{i=1}^n tau_icdot p_i.

При этом скорость передачи информации

C=bar{I}(X_T,Y_T)=lim_{Trightarrow infty} frac{(X_T,Y_T)}{T} text{ [бит/с]}. (
5.6)

Скорость передачи информации зависит от статистических свойств источника, метода кодирования и свойств канала.

Пропускная способность дискретного канала связи

C_n= max left{ lim_{Trightarrow infty} frac{(X_T,Y_T)}{T}right}. (
5.7)

Пример 5.4 [2] Источник вырабатывает 3 сообщения с вероятностями: p_1=0,1, p_2=0,2 и p_3=0,7. Сообщения независимы и передаются равномерным двоичным кодом (m = 2) с длительностью символов, равной 1 мс. Определить скорость передачи информации по каналу связи без помех.

Решение. Энтропия источника равна

H=-sum_{i=1}^{m} p_i log_2 p_i = - left( 0,1 log_2 0,1 + 0,2 log_2 0,2+ 0,7 log_2 0,7right)=1,16 text{ [бит/с].}

Для передачи 3 сообщений равномерным кодом необходимо два разряда, при этом длительность кодовой комбинации равна 2tau.

Средняя скорость передачи сигнала

V =1/2tau = 500 text{ [1/c]}.

Скорость передачи информации

C = vH = 500cdot1,16 = 580 text{ [бит/с]}.

Пример 5.5 По каналу связи передаются сообщения, вероятности которых соответственно равны:

(x_1)=0,1;  p(x_2)=0,2; p(x_3)=0,3; p(x_4)=0.4.

Канальная матрица, определяющая потери информации в канале связи имеет вид:

p(y/x)=left(begin{array}{llll}
    0,99&0,01&0&0\
    0,01&0,97&0,02&0\
    0&0,01&0,98&0,01\
    0&0&0,01&0,99
    end{array}
    right), 
    sumlimits_{j=1}^m p(y_j/x_l)=1 ~text{при}~ l=1,2,3,4.

Определить:

  1. Энтропию источника информации — H(X).
  2. Безусловную энтропию приемника информации — H(Y).
  3. Общую условную энтропию — H (Y/X).
  4. Скорость передачи информации, если время передачи одного символа первичного алфавита tau = 0,1 мс.
  5. Определить потери информации в канале связи при передаче 500 символов алфавита.
  6. Среднее количество принятой информации.
  7. Пропускную способность канала связи.

Решение:

  1. Энтропия источника сообщений равна

    begin{equation}
     H(X)=-sumlimits_{i=1}^{m} p(x_i) log_2 p(x_i) = \
     - ( 0,1 log_2 0,1+0,2 log_2 0,2+0,3 log_2 0,3+0,4 log_2 0,4)= \
     0,3322+0,4644+0,5211+0,5288=1,8465 text{ [бит/симв.]}
     end{equation}

  2. Вероятности появления символов на входе приемника

    begin{equation}
     p(y_1)=-sumlimits_{i=1}^{m} p(x_i) p(y_1 /x_i) = p(x_1)p(y_1/x_1)+p(x_2)p(y_1/x_2)+ \
     p(x_3)p(y_1/x_3)+p(x_4)p(y_1/x_4)=0,1cdot0,99+0,2cdot0,01=0,101;
     end{equation}

    p(y_2)=0,1cdot0,01+0,2cdot0.97+0,3cdot0,01=0,198;

    p(y_3)=0,2cdot0,02+0,3cdot0.98+0,4cdot0,01=0,302;

    p(y_4)=0,3cdot0,01+0,4cdot0.99=0,399.

    Проверка:

    sum_{i=1}^m p(y_i)=-0,101+0,198+0,302+0,399=1.

    Энтропия приемника информации равна

    begin{equation}
     H(Y)=-sumlimits_{i=1}^m p(y_i) log_2 p(y_i)=\
     -(0,101 log_2 0,101 + 0,198 log_2 0,198 + 0,302 log_2 0,302 + 0,399 log_2 0,399 =\
     0,334+0,4626+0,5216+0,5290=1,85 text{ [бит/симв].} 
     end{equation}

  3. Общая условная энтропия равна

    
     H(Y/X)=-sum_{i=1}^m sum_{j=1}^m p(x_i) p(y_j/x_i) log_2 p(y_j/x_i)=\
     -left(
     0,1(0,99 log_2 0,99 + 0,01 log_2 0,01)+right.\
     0,2(0,01 log_2 0,01 + 0,97 log_2 0,97+ 0,02 log_2 0,02)+\
     0,3(0,01 log_2 0,01 + 0,98 log_2 0,98+ 0,01 log_2 0,01)+\
     left. 0,4(0,01 log_2 0,01 + 0,99 log_2 0,99)
     right)= \
     0,008+0,044+0,048+0,032=0,133 text{ [бит/симв].}

  4. Скорость передачи информации равна:

    
     C=Vleft(H(Y)-H(Y/X)right)=Vleft(H(X)-H(X/Y)right)=\
     (1,85-0,132)/0,0001=17,18 text{ [Кбит/с].}

  5. Потери информации в канале связи при передаче 500 символов алфавита равны:

    Delta I=kH(Y/X) = 500cdot 0,132=66 text{ [бит.]}

  6. Среднее количество принятой информации равно:

    
     I=kleft(H(Y)-H(Y/X)right)=kleft(H(X)-H(X/Y)right)=\
     500cdot(1,85-0,132)=859 text{ [бит].}

  7. Пропускная способность канала связи

    C_n=Vleft( log_2 m - H(Y/X) right)=(2-0,132)/0,0001=18,68 text{ [Кбит/с].}

Список литературы

  1. Харин Ю.С., Берник В.И., Матвеев Г.В. Математические основы криптологии — Минск: БГУ, 1999. — 319 с.
  2. Блинцов С.В. Сборник примеров и задач по теории информации. Николаев: НУК им. адмирала Макарова, 2004..
  3. Рябко Б.А., Филонов А.Н. Криптографические методы защиты информации: Учебное пособие для ВУЗов. Новосиб.: СибГУТИ, 2008. — 229 с.

В дискретной системе связи при отсутствии помех информация на выходе канала связи (канала ПИ) полностью совпадает с информацией на его входе, поэтому скорость передачи информации численно равна производительности источника сообщений:

. (21)

При наличии помех часть информации источника теряется и скорость передачи информации оказывается меньшей, чем производительность источника. Одновременно в сообщение на выходе канала добавляется информация о помехах (рис.5).

Поэтому при наличии помех необходимо учитывать на выходе канала не всю информацию, даваемую источником, а только взаимную информацию:

бит/с. (22)

На основании формулы (20) имеем

или

, (23)

где H¢(x) — производительность источника;

H¢(x/y) — «ненадёжность» канала(потери) в единицу времени;

H¢(y) — энтропия выходного сообщения в единицу времени;

H¢(y/x)=H’(n) –энтропия помех ( шума) в единицу времени.

Пропускной способностью канала связи (канала передачи информации) C называется максимально возможная скорость передачи информации по каналу

. (24)

Для достижения максимума учитываются все возможные источники на выходе и все возможные способы кодирования.

Таким образом, пропускная способность канала связи равна максимальной производительности источника на входе канала, полностью согласованного с характеристиками этого канала, за вычетом потерь информации в канале из-за помех.

В канале без помех C=max H¢(x), так как H¢(x/y)=0. При использовании равномерного кода с основанием k, состоящего из n элементов длительностью , в канале без помех

,

при k=2 бит/c. (25)

Для эффективного использования пропускной способности канала необходимо его согласование с источником информации на входе. Такое согласование возможно как для каналов связи без помех, так и для каналов с помехами на основании двух теорем, доказанных К.Шенноном.

1-ая теорема (для канала связи без помех):

Если источник сообщений имеет энтропию H (бит на символ), а канал связи – пропускную способность C (бит в секунду), то можно закодировать сообщения таким образом, чтобы передавать информацию по каналу со средней скоростью, сколь угодно близкой к величине C, но не превзойти её.

К.Шеннон предложил и метод такого кодирования, который получил название статистического или оптимального кодирования. В дальнейшем идея такого кодирования была развита в работах Фано и Хаффмена и в настоящее время широко используется на практике для “cжатия сообщений”.

2-ая теорема (для каналов связи с помехами):

Если пропускная способность канала равна C, а производительность источника H’(x)<C, то путём соответствующего кодирования можно передавать информацию по каналу связи со скоростью, сколь угодно к C и с вероятностью ошибки, сколь угодно близкой к нулю. Если же H’(x)>C, то можно закодировать источник таким образом, что ненадёжность будет меньше, чем H’(x)-C+e, где e. – сколь угодно малая величина.

Не существует способа кодирования, обеспечивающего ненадёжность, меньшую, чем H'(x)-C.

К сожалению, теорема К.Шеннона для каналов с шумами(помехами) указывает только на возможность такого кодирования, но не указывает способа построения соответствующего кода. Однако известно, что при приближении к пределу, устанавливаемому теоремой Шеннона, резко возрастает время запаздывания сигнала в устройствах кодирования и декодирования из-за увеличения длины кодового слова n. При этом вероятность ошибки на выходе канала стремится к величине

. (26)

Cледовательно, имеет место “обмен” верности передачи на скорость и задержку передачи.

Вопросы

  1. Что такое пропускная способность канала связи, как она определяется?
  2. Чему равна пропускная способность канала связи без помех?
  3. Как влияют помехи на величину пропускной способности?
  4. Что утверждает теорема Шеннона для канала связи без помех?
  5. Что утверждает теорема Шеннона для канала связи с помехами?

Содержание

      • 0.0.1 И что теперь с этим делать?
      • 0.0.2 Результат
  • 1 Что такое пропускная способность каналов связи?
  • 2 Измерение пропускной способности
  • 3 Расчет пропускной способности
  • 4 Способы передачи сигнала
  • 5 Средняя пропускная способность линий связи
  • 6 Что такое бит? Как измеряется скорость в битах?
  • 7 Факторы, влияющие на скорость интернета
  • 8 Как увеличить скорость интернета?
  • 9 В заключение

Пропускная способность — метрическая характеристика, показывающая соотношение предельного количества

Используется в различных сферах:

  • в связи и информатике П. С. — предельно достижимое количество проходящей информации;
  • в транспорте П. С. — количество единиц транспорта;
  • в машиностроении — объём проходящего воздуха (масла, смазки);
  • в электромагнетизме (оптике, акустике) — отношение потока энергии, прошедшего сквозь тело к потоку, который падает на это тело. Сумма пропускной способности, поглотительной способности и отражательной способности равна единице (см. также Прозрачность среды).
  • в гидравлике — Пропускная способность (гидравлика).

Может измеряться в различных, иногда сугубо специализированных, единицах — штуки, бит/с, тонны, кубические метры и т. д.; в оптике — безразмерной величиной.

В информатике определение пропускной способности обычно применяется к каналу связи и определяется максимальным количеством переданной или полученной информации за единицу времени.
Пропускная способность — один из важнейших с точки зрения пользователей факторов. Она оценивается количеством данных, которое сеть в пределе может передать за единицу времени от одного подсоединенного к ней устройства к другому.

Пропускная способность канала

Наибольшая возможная в данном канале скорость передачи информации называется его пропускной способностью. Пропускная способность канала есть скорость передачи информации при использовании «наилучших» (оптимальных) для данного канала источника, кодера и декодера, поэтому она характеризует только канал.

Номинальная скорость — битовая скорость передачи данных без различия служебных и пользовательских данных.
Эффективная скорость — скорость передачи пользовательских данных (нагрузки). Этот параметр зависит от соотношения накладных расходов и полезных данных.

Пропускная способность дискретного (цифрового) канала без помех

где m — основание кода сигнала, используемого в канале. Скорость передачи информации в дискретном канале без шумов (идеальном канале) равна его пропускной способности, когда символы в канале независимы, а все m символов алфавита равновероятны (используются одинаково часто). Vт — символьная скорость передачи.

Пропускная способность нейронной сети

Пропускная способность нейронной сети — среднее арифметическое между объёмами обрабатываемой и создаваемой информации нейронной сетью за единицу времени.

Возникла задача измерить пропускную способность Ethernet канала и предоставить отчет, причем измерения нужно проводить 24 часа. Какими способами это можно сделать?

Применение инструмента iperf очень простое: с одной стороны канала на компьютере запускается сервер, который ждет соединения от клиента:

С другой стороны канала на другом компьютере запускается клиент с указанием ip сервера:

Как видим из отчета пропускная способность измерялась 10 секунд и составила 28.2 Гбит/с (скорость такая большая потому что и сервер и клиент запускались на одном компьютере). Отлично, но нам нужно измерять скорость целые сутки. Смотрим параметры iperf —help и находим там кучу полезной информации. В итоге у меня получилось примерно так:

Параметр -t 86400 задает время измерения в секундах, а параметр -i 15 говорит выдавать результат каждые 15 секунд. Уже лучше, но не совсем удобно просматривать такой отчет за целые сутки (в таком отчете будет 86400/15=5760 строк). Смотрим help дальше и видим что iperf умеет предоставлять отчет в виде:

Отлично! То, что нужно! Теперь iperf выдает статистику удобную для обработки. Параметры в отчете разделены запятыми. Первая колонка — дата и время, потом видны ip адреса и порты клиента и сервера, в конце пропускная способность в битах/с. Перенаправим этот отчет в файл:

Поcле окончания суточного теста в файле stat.txt аккуратно сложены результаты, которые нужно визуализировать в удобном виде для анализа.

И что теперь с этим делать?

Итак, в файле stat.txt собраны результаты тестов пропускной способности канала за нужное время с заданным интервалом. Просматривать глазами каждую из нескольких тысяч строк и делать анализ конечно можно, но когда-то люди придумали компьютеры в первую очередь для облегчения себе труда, а не для просмотра котиков в вконтактиках и мы воспользуется этим изобретением.

В файле отчета лежат данные необходимые и не очень. Избавимся от лишних. Нас интересует дата/время измерения и скорость в эту дату/время. Это первый и последний параметр в каждой строке файла stat.txt.

Я обработал этот файл наспех написанным скриптом на python3, прошу не судить за кривость кода — я ненастоящий сварщик, я маску на стройке нашел.

Этот скрипт читает строки из файла stat.txt и записывает результаты в файл est.txt. В файле est.txt получается:

Уже удобнее. Показана дата, время результат измерения в Мбит/с. Для этого примера взяты результаты измерения за 10 минут с отчетом каждую секунду.

Но всё еще результат в виде текстового файла не сильно удобного для анализа. Надо нарисовать график!

Для рисования графиков есть специальные и крутые программы. Я советую gnuplot за ее супергибкость, бесплатность, кучу примеров в интернете.

После получаса копаний в результатах запроса к гуглу «gnuplot example» у меня родился следующий скрипт:

Этот скрипт читает файл est.txt, который получился после обработки stat.txt и рисует график в файл graph.png. Запускаем и появляется файл graph.png.

Результат

Как определить пропускную способность канала связи

В результате появилась простая методика измерения пропускной способности канала с визуально удобным отчетом и два скрипта обработки данных.

В эти скрипты можно напихать кучу всего другого для гибкости вроде: отчет за заданный интервал времени, более подробную детализацию графика для более пристального расматривания, прикрутить анализ по времени отклика ping, параллельно с сбором суточных даных снимать с каналообразующего оборудования по SNMP другие данные типа уровней сигнала на радиоканале и показателей BER, но это уже другая история.

С течением технического прогресса расширились и возможности интернета. Однако для того, чтобы пользователь мог ими воспользоваться в полной мере, необходимо стабильное и высокоскоростное соединение. В первую очередь оно зависит от пропускной способности каналов связи. Поэтому необходимо выяснить, как измерить скорость передачи данных и какие факторы на нее влияют.

Как определить пропускную способность канала связи

Что такое пропускная способность каналов связи?

Для того чтобы ознакомиться и понять новый термин, нужно знать, что представляет собой канал связи. Если говорить простым языком, каналы связи – это устройства и средства, благодаря которым осуществляется передача данных (информации) на расстоянии. К примеру, связь между компьютерами осуществляется благодаря оптоволоконным и кабельным сетям. Кроме того, распространен способ связи по радиоканалу (компьютер, подключенный к модему или же сети Wi-Fi).

Пропускной же способностью называют максимальную скорость передачи информации за одну определенную единицу времени.

Обычно для обозначения пропускной способности используют следующие единицы:

Единица измерения информации

Килобит (либо килобайт)

Мегабит (либо мегабайт)

Как определить пропускную способность канала связи

Измерение пропускной способности

Измерение пропускной способности – достаточно важная операция. Она осуществляется для того, чтобы узнать точную скорость интернет-соединения. Измерение можно осуществить с помощью следующих действий:

  • Наиболее простое – загрузка объемного файла и отправление его на другой конец. Недостатком является то, что невозможно определить точность измерения.
  • Кроме того, можно воспользоваться ресурсом speedtest.net. Сервис позволяет измерить ширину интернет-канала, «ведущего» к серверу. Однако для целостного измерения этот способ также не подходит, сервис дает данные обо всей линии до сервера, а не о конкретном канале связи. Кроме того, подвергаемый измерению объект не имеет выхода в глобальную сеть Интернет.
  • Оптимальным решением для измерения станет клиент-серверная утилита Iperf. Она позволяет измерить время, количество переданных данных. После завершения операции программа предоставляет пользователю отчет.

Благодаря вышеперечисленным способам, можно без особых проблем измерить реальную скорость интернет-соединения. Если показания не удовлетворяют текущие потребности, то, возможно, нужно задуматься о смене провайдера.

Расчет пропускной способности

Для того чтобы найти и рассчитать пропускную способность линии связи, необходимо воспользоваться теоремой Шеннона-Хартли. Она гласит: найти пропускную способность канала (линии) связи можно, рассчитав взаимную связь между потенциальной пропускной способностью, а также полосой пропускания линии связи. Формула для расчета пропускной способности выглядит следующим образом:

В данной формуле каждый элемент имеет свое значение:

  • I– обозначает параметр максимальной пропускной способности.
  • G– параметр ширины полосы, предназначенной для пропускания сигнала.
  • As/An– соотношение шума и сигнала.

Теорема Шеннона-Хартли позволяет сказать, что для уменьшения внешних шумов или же увеличения силы сигнала лучше всего использовать широкий кабель для передачи данных.

Как определить пропускную способность канала связи

Способы передачи сигнала

На сегодняшний день существует три основных способа передачи сигнала между компьютерами:

  • Передача по радиосетям.
  • Передача данных по кабелю.
  • Передача данных через оптоволоконные соединения.

Каждый из этих способов имеет индивидуальные характеристики каналов связи, речь о которых пойдет ниже.

К преимуществам передачи информации через радиоканалы можно отнести: универсальность использования, простоту монтажа и настройки такого оборудования. Как правило, для получения и передачи данных беспроводным способом используется радиопередатчик. Он может представлять собой модем для компьютера или же Wi-Fi адаптер.

Недостатками такого способа передачи можно назвать нестабильную и сравнительно низкую скорость, большую зависимость от наличия радиовышек, а также дороговизну использования (мобильный интернет практически в два раза дороже «стационарного»).

Как определить пропускную способность канала связи

Плюсами передачи данных по кабелю являются: надежность, простота эксплуатации и обслуживания. Информация передается посредством электрического тока. Условно говоря, ток под определенным напряжением перемещается из пункта А в пункт Б. А позже преобразуется в информацию. Провода отлично выдерживают перепады температур, сгибания и механическое воздействие. К минусам можно отнести нестабильную скорость, а также ухудшение соединения из-за дождя или грозы.

Пожалуй, самой совершенной на данный момент технологией по передаче данных является использование оптоволоконного кабеля. В конструкции каналов связи сети каналов связи применяются миллионы мельчайших стеклянных трубок. А сигнал, передаваемый по ним, представляет собой световой импульс. Так как скорость света в несколько раз выше скорости тока, данная технология позволила в несколько сотен раз ускорить интернет-соединение.

К недостаткам же можно отнести хрупкость оптоволоконных кабелей. Во-первых, они не выдерживают механические повреждения: разбившиеся трубки не могут пропускать через себя световой сигнал, также резкие перепады температур приводят к их растрескиванию. Ну а повышенный радиационный фон делает трубки мутными – из-за этого сигнал может ухудшаться. Кроме того, оптоволоконный кабель тяжело восстановить в случае разрыва, поэтому приходится полностью его менять.

Вышесказанное наводит на мысль о том, что с течением времени каналы связи и сети каналов связи совершенствуются, что приводит к увеличению скорости передачи данных.

Средняя пропускная способность линий связи

Из вышесказанного можно сделать вывод о том, что каналы связи различны по своим свойствам, которые влияют на скорость передачи информации. Как говорилось ранее, каналы связи могут быть проводными, беспроводными и основанными на использовании оптоволоконных кабелей. Последний тип создания сетей передачи данных наиболее эффективен. И его средняя пропускная способность канала связи – 100 мбит/c.

Как определить пропускную способность канала связи

Что такое бит? Как измеряется скорость в битах?

Битовая скорость – показатель измерения скорости соединения. Рассчитывается в битах, мельчайших единицах хранения информации, на 1 секунду. Она была присуща каналам связи в эпоху «раннего развития» интернета: на тот момент в глобальной паутине в основном передавались текстовые файлы.

Сейчас базовой единицей измерения признается 1 байт. Он, в свою очередь, равен 8 битам. Начинающие пользователи очень часто совершают грубую ошибку: путают килобиты и килобайты. Отсюда возникает и недоумение, когда канал с пропускной способностью 512 кбит/с не оправдывает ожиданий и выдает скорость всего лишь 64 КБ/с. Чтобы не путать, нужно запомнить, что если для обозначения скорости используются биты, то запись будет сделана без сокращений: бит/с, кбит/с, kbit/s или kbps.

Факторы, влияющие на скорость интернета

Как известно, от пропускной способности канала связи зависит и конечная скорость интернета. Также на скорость передачи информации влияют:

Радиоволны, кабели и оптоволоконные кабели. О свойствах, преимуществах и недостатках этих способов соединения говорилось выше.

Чем больше загружен сервер, тем медленнее он принимает или передает файлы и сигналы.

Наиболее сильно помехи оказывают влияние на соединение, созданное с помощью радиоволн. Это вызвано сотовыми телефонами, радиоприемниками и прочими приемниками и передатчиками радиосигнала.

  • Состояние сетевого оборудования.

Безусловно, способы соединения, состояние серверов и наличие помех играют важную роль в обеспечении скоростного интернета. Однако даже если вышеперечисленные показатели в норме, а интернет имеет низкую скорость, то дело скрывается в сетевом оборудовании компьютера. Современные сетевые карты способны поддерживать интернет-соединение со скоростью до 100 Мбит в секунду. Раньше карты могли максимально обеспечивать пропускную способность в 30 и 50 Мбит в секунду соответственно.

Как определить пропускную способность канала связи

Как увеличить скорость интернета?

Как было сказано ранее, пропускная способность канала связи зависит от многих факторов: способа соединения, работоспособности сервера, наличия шумов и помех, а также состояния сетевого оборудования. Для увеличения скорости соединения в бытовых условиях можно заменить сетевое оборудование на более совершенное, а также перейти на другой способ соединения (с радиоволн на кабель или оптоволокно).

В заключение

В качестве подведения итогов стоит сказать о том, что пропускная способность канала связи и скорость интернета — это не одно и то же. Для расчета первой величины необходимо воспользоваться законом Шеннона-Хартли. Согласно ему, шумы можно уменьшить, а также увеличить силу сигнала посредством замены канала передачи на более широкий.

Как определить пропускную способность канала связи

Увеличение скорости интернет-соединения тоже возможно. Но оно осуществляется путем смены провайдера, замены способа подключения, усовершенствования сетевого оборудования, а также ограждения устройств для передачи и приема информации от источников, вызывающих помехи.


Понравилась статья? Поделить с друзьями:
  • Как составить проект фильма
  • Как составить программу питания при тренировках
  • Частота вращения тела как найти
  • Как найти все подарки вайм ворлд
  • Как найти расстояние с помощью масштаба