К ВОПРОСУ О ЛОГИЧЕСКОМ ОПИСАНИИ ЯЗЫКОВ В ИХ ФОНОЛОГИЧЕСКОМ АСПЕКТЕ
создание документов онлайн
Документы и бланки онлайн

Обследовать

К ВОПРОСУ О ЛОГИЧЕСКОМ ОПИСАНИИ ЯЗЫКОВ В ИХ ФОНОЛОГИЧЕСКОМ АСПЕКТЕ

логика


Отправить его в другом документе Tab для Yahoo книги - конечно, эссе, очерк Hits: 697


дтхзйе дплхнеофщ

КЛАССИФИКАЦИЯ
О РАЗЛИЧНЫХ КЛАССАХ ПОНЯТИЙ
УСЛОВНЫЕ, РАЗДЕЛИТЕЛЬНЫЕ И УСЛОВНО РАЗДЕЛИТЕЛЬНЫЕ СИЛЛОГИЗМЫ
О ЛОГИЧЕСКИХ ОШИБКАХ
О НЕПОСРЕДСТВЕННЫХ УМОЗАКЛЮЧЕНИЯХ
МЕТОДЫ ИНДУКТИВНОГО ИССЛЕДОВАНИЯ
О ЗАКОНАХ МЫШЛЕНИЯ
 

К ВОПРОСУ О ЛОГИЧЕСКОМ ОПИСАНИИ ЯЗЫКОВ В ИХ ФОНОЛОГИЧЕСКОМ АСПЕКТЕ[1]

Различительные признаки встречаются группами или пучками, которые мы называем фонемами. Говорящий привыкает выполнять артикуляционные движения таким образом, что различительные (или фонемные) признаки обязательно присутствуют в производимых им звуковых волнах; он реагирует только на эти признаки и не воспринимает всего остального в той огромной акустической массе, которая достигает его уха.

Леонард    Блумфилд    ("1933).

Число различных фонем в языке — лишь небольшое подмно­жество числа [реальных] форм.

Леонард     Блумфилд  (1926).

Каждая наука должна говорить на языке количественных тер­минов; лингвистика удовлетворяет этому логическому требованию, поскольку она описывает язык в терминах фонем.

Леонард    Блумфилд    (1927).

1. Введение

Эта работа представляет собой попытку как-то усовер­шенствовать методы логического описания фонологической структуры языков; при этом авторы использовали некото­рые элементарные понятия статистической теории инфор­мации[2].



Конкретная иллюстрация дается на основе статисти­ческого анализа разговорного русского языка[3]. Материа­лом анализа послужили образчики современной речи (го­родского населения), записанные Пешковским и вклю­чающие 10 тысяч звуков в фонетической транскрипции последнего[4].

При анализе русского или какого-нибудь другого язы­ка мы должны прежде всего установить, сколько нужно различительных признаков и каковы должны быть эти при­знаки, чтобы мы могли различить все значимые элементы кода этого языка, т. е. минимальные значимые единицы, называемые морфемами, и их сочетания в словах. Слова же — это максимальные единицы кода. Мы должны определить минимальный набор таких признаков, кото­рые необходимы слушающему, чтобы он мог без помощи контекста или ситуации опознавать и различать все мор­фемы, кроме омонимичных. Если набор признаков уста­новлен, все другие фонетические различия между морфе­мами или словами данного языка могут быть предсказаны. Следовательно, они являются избыточными[5].

Если сравнить, например, русские слова 1) [bīt], «быт», 2) [b,ıt] «бит», 3) [bī't,] «быть» и 4) [b,it,] «бить»[6], то можно заметить, что слова 1 и 2 или слова 3 и 4 отли­чаются одно от другого в двух отношениях: [ı] — более передний звук, чем [ī] (т. е. он имеет более высокую вто­рую форманту), a [i]—более передний, чем [ī’]; в то же вре­мя [b,] отличается своей палатальностью от [b]: пала­тальность есть результат опускания языка и одновремен­ного расширения фарингального канала, что приводит к перемещению энергии вверх, вдоль оси частот. Слова 1 и 3 или слова 2 и 4 также отличаются друг от друга в двух отношениях: [ī’] — более закрытый звук, чем [ī], a [i] — более закрытый, чем [ı]; точно так же отличается от [t] своей палатальностью и [t,][7].

Если палатальность согласного или отсутствие ее рас­сматривать как различительный признак, то одного этого признака (который мы назовем sharp || plain) достаточно, чтобы различать все четыре вышеупомянутых слова. С другой стороны, если бы эта различительная функция была приписана гласным, мы должны были бы принять два независимых различительных признака: передний зад­ний (front || back) и закрытый открытый (close || open). Излишнее увеличение числа признаков — причина, до­статочная для того, чтобы отвергнуть второй вариант опи­сания. В русском языке есть еще один дополнительный до­вод в пользу первого положения: в некоторых позициях наличие или отсутствие палатал 222c26bc ьности согласного может быть единственным критерием для отличия последователь­ностей, в других отношениях совершенно идентичных[8]. Поэтому палатальность нужно рассматривать как незави­симый различительный признак. Ср. [vo∫t,] «вождь» и [ko∫t] «издержки, кошт» или [sęl.t,] «сельдь» и [k,ęl,t] «кельт». С другой стороны, появление продвинутых вперед и отодвинутых назад вариантов гласных, так же как закры­тых или открытых вариантов, всецело зависит от наличия или отсутствия палатализованных согласных перед глас­ным и после него.

В результате исследований такого рода в коде совре­менного русского литературного языка мы находим 11 раз­личительных признаков, которые группируются в различ­ных сочетаниях в 42 фонемы[9]. Этих одиннадцати различительных признаков достаточно, чтобы различать все мор­фемы и слова русского языка, кроме омонимичных.

Мы оставляем в стороне звуковые признаки, выполня­ющие другие функции, а именно конфигуративные (соnfigurational) признаки, указывающие на разделение выска­зывания на грамматические единицы различных степеней сложности, и экспрессивные (или, более точно, физиогно­мические [physiognomic]) признаки, обозначающие исклю­чительно эмоциональное состояние говорящего.

Примеры конфигуративных признаков, указывающих разделение звуковой цепочки на словарные единицы (сло­ва): [de’v'ol,nīj] /da v'ol,nij/ «да вольный»: [dav'ol,nīj] /dav'ohnij/ «довольный»; [t,'e∙n,į t'am] /t,’en,i tam/ «тени там»: [t,'en,ı t'am] /t,'e n,i-t'am/ «те не там»; [jix’ī∙-de’jix,'i∙ds] /j'ix 'ida. jix'ida/ «их Ида — ехида»[10].

Физиогномические признаки можно проиллюстрировать на примере произношения «да», которое произносится по-разному в зависимости от степени и характера эмоции.

Те и другие признаки несут дополнительную информа­цию, аналогичную той, которая содержится в таких гра­фических эквивалентах конфигуративных признаков, как пробел или знаки препинания, и в таких эквивалентах физиогномических признаков, как подчеркивание или выделение курсивом. Избыточные признаки, однако, функ­ционируют вместе с различительными, облегчая слушаю­щему процесс отбора и уменьшая нагрузку на его внимание [т. е. помогают ему опознавать и различать смысловые еди­ницы.— Прим. перев.].

Для наших подсчетов текст был разбит на последова­тельности фонем, состоящие из двух последовательных гласных и согласной между ними (если таковая имеется). Таким образом, каждая гласная участвует в наших подсче­тах дважды: как начальная фонема данной последователь­ности и как конечная фонема предшествующей последо­вательности. Мы выбрали эти последовательности «от глас­ной до гласной», потому что фонематические ограничения в последовательности фонем проявляются в русском язы­ке в пределах групп согласных и сочетаний гласной с пред­шествующими или последующими согласными. Явного влияния согласных, предшествующих данной гласной, на согласные, следующие за этой гласной, или наоборот, не обнаружено[11]. Обязательная синтаксическая пауза — начальная и конечная — обозначается точкой и приравни­вается к гласной.

Можно представить себе три типа подсчетов: А) подсче­ты, которые учитывают как границы между словами (обо­значаемые пропуском), так и стыки между соседними ча­стями сложных слов[12] (обозначаемые дефисом); В) подсчеты, которые учитывают только границы слов, и С) подсчеты, при которых не учитываются ни границы слов, ни стыки частей сложных слов; последовательность фонем прерывает­ся только в местах обязательной паузы.

Эти три способа деления текста на элементарные по­следовательности могут быть проиллюстрированы на при­мере следующего отрывка и нижеприведенной таблицы:

Вот, на тебе на обед. Пойдешь... /.v'ot. n'a t,ib,'e na-ab.'et. pa-jd, o’∫./.

Все подсчеты в этой статье выполнены по первому способу.

A)  # v'o 'ot # #n'a 'a# # t’i  ib, 'e # #na  a##a ab,'e 'et##pa a##jd,'o 'o∫#

B)  # v'o 'ot # #n'a 'a#' # t,i  ib, 'e # #nа    аа   ab,'e 'et##pa   ajd,'o    'o∫#

C)  # v'o 'ot # #n'a     'at,i     ib, 'e  'ena      aa   ab,'e 'et##pa   ajd,'o    'o∫#

2. Система признаков как логическое описание фонемы

В последующем изложении язык будет рассматриваться как марковский процесс[13]. Фонемы считаются однозначно определенными, но их порядок в последовательностях, которые составляют нашу выборку, может быть описан только статистически.

При выделении одной определенной фонемы из совокуп­ности фонем данного языка каждый различительный при­знак можно рассматривать как вопрос, на который дается ответ «да» или «нет». Так, про некоторую фонему можно спросить: «Эта фонема — гласная?». Ответ: «Да» или: «Нет». Или: «Эта фонема — согласная?». Ответ: «Да» или: «Нет» и так далее до конца перечня признаков. Чтобы од­нозначно определить фонему русского языка, необходимо задать всего одиннадцать таких вопросов. Таблица А ил­люстрирует эти вопросы с ответами «да» (+) или «нет» (—); нуль (0) означает отсутствие признака.

Таким образом, здесь мы имеем дело с трехзначным делением; к данному вопросу мы еще вернемся ниже.

Простая иллюстрация такого логического описания дается на рис. 1. Во множестве из восьми «объектов» А, В ...Н каждый объект определяется по ответам «да» (+) или «нет» (—). Все множество объектов сначала делится пополам, и мы спрашиваем: находится ли искомый объект на правой половине (+) или нет (—)? Последовательные подразделения в конце концов приведут к идентификации объекта множества. Если имеется N объектов и если N—степень двойки, то число ответов «да» и «нет», необходимое для идентификации любого объекта в нашем множестве, равно log2N. Поэтому полная идентификация любого объекта задается цепочкой плюсов и минусов; так, на­пример, объект G на рис. 1 (см. ел. стр.) определяется цепочкой (++—).

Даже если N не есть степень двойки, величина log2N может быть все-таки использована как мера числа ответов, необходимых для идентификации любого элемента множества N. В таких случаях дробный результат[14] не следует, конечно, понимать как дробное число вопросов. Этот ре­зультат означает, что не все N элементов нашего множества обязательно требуют для своей идентификации одинако­вого числа ответов. Дробь получается в результате сведе­ния к среднему числу.

A               B

C            D

E                F

Q             H

-                  -                       -             -

+                  +                      +             +

-                  -

+                  +

-                  -

+                  +

-

+

-

+

-

+

-

+

Рис. 1. Логическая идентификация элементов множества из восьми объектов.

Величина log2 N условно выражается в так называемых битах; название этой единицы происходит от binary digit[15] (т. е. от выбора одного из двух ответов: «да» или «нет»).

На рис. 1 представлено последовательное деление каж­дый раз на две равные подгруппы; этот метод приводит к идентификации объекта при помощи наименьшего воз­можного числа ответов и, таким образом, к самой короткой цепочке плюсов и минусов. Деление на неравные подгруп­пы требует в среднем больше вопросов и ответов.

Применим теперь этот способ к списку из 42 русских фонем, перечисленных в таблице А. Но сначала рассмотрим чисто гипотетическое описание одной из 42 фонем, предпо­ложив, что это не фонема, а просто некоторый объект без всякого лингвистического значения. Если бы фонемы были последовательно подразделены на группы, как это показано на рис. 1, для описания любого объекта потре­бовалось бы в среднем log242 вопросов, или 5,38 бита на каждую фонему. В нашем анализе языка нас интересуют, однако, не только вопросы логики, но и действительные факты; поэтому в таблице А ответы «да» или «нет» даются с учетом реального процесса речи.

Зададимся следующим вопросом: можно ли придумать такую систему признаков, которая бы использовала в среднем только 5,38 вопросов на одну фонему и была бы в некотором смысле аналогична только что рассмотренно­му гипотетическому случаю? Это, по-видимому, возможно, но различительные признаки, используемые в действитель­ности (см. табл. А), служат другим целям и тесно связаны с физической стороной речи. На самом деле различитель­ных признаков одиннадцать, т. е. сюда входят в среднем 5,62 лишних вопроса на одну фонему (11—5,38). Это оз­начает, что используются избыточные, т. е. как бы лишние плюсы и минусы. Однако признаки, предложенные ранее для лингвистического анализа, укладываются в логическую систему описания, хотя, по-видимому, это описание недостаточно экономно.

Таблица А. Фонемы русского языка и их различительные признаки.

Знак (+) обозначает ответ «да», (-) — ответ «нет», (0) — отсутствие признака.

* В оригинале: vocalic, consonantal, compact, diffuse, grave, nasal, conti­nuant, voiced, sharp, strident, stressed.— Прим, перев.

Можно ли увеличить эффективность нашего эмпириче­ского описания, как-то упростив таблицу А?

Таблица А дает простейшее возможное описание сорока двух фонем в терминах данных одиннадцати различитель­ных признаков.

Данная таблица и рис. 1 содержат ряд различий. Во-первых, вопросы, следующие один за другим в таблице А, имеют фонетическое значение в отличие от вопросов на рис. 1, где просто спрашивается «направо» или «налево». Ответ на первый вопрос (гласный: «да» или «нет»?) делит 42 фонемы не на две равные части (т. е. 21 плюс и 21 минус), а на 12 плюсов и 30 минусов; это объясняется реальным характером фонем русского языка. Второй вопрос (соглас­ный: «да» или «нет»?) снова делит каждую из этих групп на неравные подгруппы и так далее.

Во-вторых, некоторые вопросы из таблицы А для опре­деленных фонем вообще не нуждаются в ответе, так как и без этих вопросов происходит полная идентификация дан­ных фонем.

- В таблице А мы употребляем нуль, чтобы обо­значить отсутствие признака, т. е. «возможен как плюс, так и минус». Например, фонема /t/ представлена цепочкой (- + - 0 - - - - -  - 0).   Каждый  нуль  можно  заменить плюсом или минусом, и это ничего не изменит. При любой такой замене цепочка символов для фонемы /t/ остается единственной и не смешивается ни с одной другой цепочкой. Поскольку каждый нуль можно, таким образом, рассмат­ривать как плюс или как минус, общее число вопросов на каждую фонему — одиннадцать. Это и есть мера «инфор­мации», которая заключается в выборе говорящим какой-либо одной фонемы из 42, по крайней мере на основе из­ложенной здесь системы различительных признаков. Од­нако, как мы видели, действительная «информация» может быть выражена средним числом вопросов (битов) на фоне­му— 5,38; тогда 5,62 бита представляют собой избыточ­ность, которая получается в результате замены нолей плю­сами или минусами. (Нужно подчеркнуть, что до сих пор, говоря о мере «информации», мы основывались на пред­положении, что все 42 фонемы имеют равновероятную встречаемость и что они являются полностью независи­мыми единицами. Но так как язык имеет, конечно, намного более сложную структуру, наше понятие «информации» будет в дальнейшем уточнено.)

Термин «избыточность» не следует понимать как «рас­точительность». Избыточность — это внутреннее свойство речи, и более того — это свойство каждой системы связи; избыточность служит целям наиболее успешного функцио­нирования системы. В частности, избыточность помогает слушателю устранить неясности, внесенные искажением сигнала или мешающими шумами. Например, признак назальности имеет значение /0/ для всех русских гласных. Если заменить нули на плюсы, новые символы не будут оз­начать, что в русской речи гласные всегда назализуются; обычно этого не происходит, но, даже если это имеет место, назальность лишена фонематического значения. В некото­рых случаях нуль стоит там, где подстановка на его место плюса или минуса может обозначать невозможную арти­куляцию; но и здесь дело в том, что данная фонема иден­тифицируется без этого признака.

Если данные таблицы А могут быть перегруппированы так, что уничтожится необходимость употребления дву­смысленного символа 0, то число вопросов, необходимых для идентификации любой фонемы, в среднем уменьшится. Таким образом, описание фонем в терминах данных разли­чительных признаков будет менее избыточно.

3. Устранение двусмысленных нулевых знаков

Можно предположить, что, изменяя порядок вопросов мы сумеем устранить все нули в таблице А или по крайней мере переместить их на конец каждой цепочки знаков так, что их удастся опустить (при этом фонема идентифици­руется цепочкой одних плюсов и минусов). Оказывается, однако, достигнуть этого путем простой перестановки воп­росов невозможно.

Постановка вопроса изменится, если рассматривать таблицу символов (+,—, 0) в качестве кодовой таблицы для идентификации различных фонем. При такой точке зрения нет основания считать, что порядок следования признаков должен быть одинаковым для разных фонем. В самом деле, порядок вопросов в определенных случаях может меняться в зависимости от ответов на предыдущие вопросы. Иначе говоря, необходимо несколько различных кодовых таблиц. Таблица В показывает результат такой перестройки кода.

В качестве примера рассмотрим идентификацию фонемы /'о/. Ответы на вопросы: гласный?, согласный?, компакт­ный? — будут соответственно: + - - . Это показывает,

что рассматриваемая фонема принадлежит к группе фонем /'u u 'о 'е 'i i/. Для последующих вопросов нужна новая кодовая таблица. Остальные вопросы, как мы видим из таблицы В, располагаются в следующем порядке: диффуз­ный?, низкий?, ударный? Кодовые таблицы известны a priori и представляют независимую фонетическую струк­туру русского языка; они сами содержат в себе «информа­цию», которую несли нули в табл. А.

Процесс перекодирования можно рассматривать как трансформацию. Число знаков (битов), необходимых для идентификации каждой фонемы, теперь меньше, чем раньше, за счет исключения знака «нуль» из таблицы А. Хотя чис­ло необходимых для идентификации знаков различно для разных фонем, в среднем оно равно 6,5 битов на фонему,— величина, значительно меньшая, чем наша первоначальная (11 битов), и более близкая к теоретической величине в 5,38 бита. Таким образом, описание в терминах различи­тельных признаков стало более эффективным.

4. Вероятности фонем

а) Индивидуальные частоты встречаемости

Следующий этап в нашем описании языка — это рас­смотрение относительных частот встречаемости индивиду­альных фонем.

Вычисленная предварительно «информация» в битах на фонему имеет гипотетическую минимальную величину 5,38 (log242). Это результат последовательного деления мно­жества фонем каждый раз на две равные группы. Если же частоты встречаемости фонем неравны, необходимую среднюю величину (число битов на одну фонему) можно по­лучить путем последовательного деления множества фонем каждый раз на две группы. При этом общая вероятность встречаемости фонем первой группы будет равна общей вероятности встречаемости фонем второй группы. Тогда среднее число вопросов, необходимых для идентификации одной фонемы (в битах на фонему), будет равно Н1, где

H1 = - ∑ pi log pi,                           (1)

Суммирование идет по всем фонемам i (помните, что р; всегда меньше[16] 1).

Заметим, что H1 есть «математическое ожидание» для величины— log pi.

a

b

с

d

e

a

b

с

d

e

a

1316

2,94

0,387

4

d

177

5,81

0,100

9

i

977

3,35

0,328

6

1,

162

5,95

0,096

4

t

602

4,05

0,244

9

'u

153

5,96

0,091

6

539

4,23

0,228

4

r,

133

6,20

0,083

4

j

457

4,45

0,202

2

z

130

6,25

0,081

8

n

392

4,66

0,183

6

d,

126

6,30

0,180

9

'o

379

4,72

0,179

5

b

119

6,39

0,075

8

s

359

4,80

0,172

8

X

102

6,60

0,067

5

'e

343

4,86

0,167

5

g

91

6,80

0,062

7

k

284

5,14

0,146

7

v,

89

6,84

0,061

8

v

273

5,15

0,140

8

ζ

89

6,84

0,061

6

'i

243

5,38

0,131

6

f

85

6,86

0,058

8

u

240

5,40

0,129

6

s,

. 85

6,86

0,058

8

p

232

5,42

0,126

8

ŝ

59

7,40

0,044

9

r

230

5,45

0,125

4

m,

56

7,50

0,043

6

n,

221

5,50

0,121

6




b,

52

7,60

0,039

8

1

212

5,55

0,118

4

p,

50

7,64

0,038

8

207

5,56

0,115

6

k,

36

8,10

0,029

7

m

202

5,64

0,114

6

z,

21

8,90

0,018

8

c

197

5,65

0,111

5

f,

8

10,30

0,008

8

t,

196

5,65

0,111

9

g,

7

10,50

0,008

7

Таблица  С.

а = фонема (i); b = pi * 104; с = — log2 pi; d = — рi log pi; e = число признаков в таблице В (i означает: «любая данная фонема»; pi означает: «веро­ятность данной фонемы»).

Относительные частоты встречаемости индивидуаль­ных фонем русского языка подсчитаны с помощью метода, описанного в последних абзацах § 1; частоты даны в таб­лице С, и, основываясь на них, мы можем легко подсчи­тать по формуле (1) гипотетическую «информацию» Н1:

 Н1= 4,78 бита на фонему                                               (2)

С другой стороны, зная вероятности pi индивидуальных фонем, мы можем подсчитать среднее число различитель­ных признаков, т. е. двоичных выборов на фонему. Если Ni—это число различительных признаков, необходимых для идентификации i-той фонемы в табл. В, то среднее ко­личество двоичных выборов или различительных признаков на фонему, имеющее место в действительности, равно:

∑Nipi = 5,79 признаков на фонему,                   (3)

Что можно сравнить с идеальной величиной, найденной по формуле (2).

В своей недавней статье[17] Д. Хаффмен описал метод построения наиболее эффективного кода для множества независимых сообщений с известной дистрибуцией частоты встречаемости. В таком коде «среднее число кодовых еди­ниц на сообщение доведено до минимума».

Если рассматривать фонемы нашего языка как незави­симые сообщения, то можно применить метод Хаффмена и подсчитать на основании данных в табл. С вероятностей число кодовых единиц, которые потребовались бы в опти­мальном коде для идентификации каждой фонемы. Это чис­ло можно сравнить с тем числом различительных призна­ков, необходимых для идентификации каждой фонемы, ко­торое дается в табл. В. Однако необходимо указать, что эти числа, строго говоря, не сравнимы: как констатировалось в § 3, описание в терминах различительных признаков пред­полагает, что рассматриваемые единицы интерпретируют­ся по-разному в зависимости от ответов, полученных на предыдущей стадии анализа, тогда как все единицы в коде Хаффмена имеют одну и ту же интерпретацию. В нижесле­дующей таблице мы сопоставляем число фонем, которые задаются данным числом единиц в оптимальном коде, с числом фонем, которые задаются тем же самым числом различительных признаков в табл. В[18].

ЧИСЛО ЕДИНИЦ ИЛИ РАЗЛИЧИТЕЛЬНЫХ

ПРИЗНАКОВ

2

3

4

5

6

7

8

9

10

Число фонем

В оптимальном коде

0

2

2

11

13

8

3

1

2

В действительности (в табл. В)

1

0

6

4

10

4

12

5

0

Из приведенной таблицы видно, что метод различи­тельных признаков, рассматриваемый нами пока просто как способ описания, оказывается весьма эффективным.

До сих пор мы рассматривали фонемы языка как неза­висимые объекты. Но естественный процесс речи отнюдь не состоит в выборе цепочки независимых фонем; напротив, в конечном счете речь есть последовательность выборов, где каждый выбор частично обусловлен предшествующей (т. е. выбранной ранее) фонемой. Более точное описание естественного процесса речи основывается на утвержде­нии, что фонемы выбираются группами. Таким образом, выполненный нами простой анализ нужно рассматривать как несколько искусственное, хотя и вполне эффективное описание языка в его простейшем аспекте.

Перед тем как закончить этот раздел, мы должны отме­тить несколько статистических фактов, взятых из таб­лицы С.

Вероятность встречаемости гласной = 0,4190; плавной = 0,0737; фонемы /j/ = 0,0457; собственно согласной = 0,4616[19].

В нижеследующей таблице вероятности плюсов и мину­сов для каждого различительного признака были вычисле­ны сложением вероятностей всех фонем, имеющих в таблице В плюс для этого признака, и сложением вероятно­стей всех фонем, имеющих минус. Таким образом, вероят­ность ответа «да» на вопрос «звонкий?» — это сумма вероят­ностей всех звонких фонем, т. е. /g—g,—ζ—d—d, —z—z, —b—b, —v—v,/; в то же время вероятность ответа «нет» = сумме вероятностей всех глухих фонем, т. е. /k—k, —∫—t—t, —s—s,—ŝ—p—p,—f—f,/. (Мы опускаем данные о назальности, резкости, компактности и диффузности, так как здесь плюсов намного меньше, чем минусов, и низкая вероятность первых очевидна.)

Эти цифры существенны особенно потому, что плюсы и минусы приписывались без учета их относительной ча­стотности, целиком на основе исследования различитель­ных признаков и их отношений[20].

ВЕРОЯТНОСТЬ

ПЛЮСА (+)

МИНУСА (-)

Звонкий

0,1174

0,1920

Диезный

0,1242

0,3445

Ударный (только гласные)

0,0935

0,2533

Непрерывный

0,1822

0,2530

Низкий (гласные)

0,0772

0,1563

Низкий (согласн.)

0,1684

0,2861

Низкий (гласные и соглас­ные вместе)

0,2456

0,4424

Однако общие вероятности встречаемости различитель­ных признаков еще не определяют полностью фонологиче­скую структуру языка; существенна также дистрибуция различительных признаков во времени. С помощью этой дистрибуции измеряется то, что можно было бы назвать «длительностью каждого признака». Дистрибуцию разли­чительных признаков во времени получают из анализа вероятностей групп фонем, о которых говорится ниже. Та­ким образом, если мы знаем вероятности (a b с ... n) раз­личных цепочек из n фонем, мы можем легко определить вероятность того, что данный различительный признак непрерывно существует на протяжении отрезка боль­шего, чем m фонем, где т —1,2, ...n.

В нашу задачу входит не полное осуществление такого анализа, а лишь выявление возможностей его применения как основного метода описания языков.

б) Группы фонем, слоги

В предыдущем разделе мы обращали внимание главным образом на то, что можно назвать фонемными монограм­мами, т. е. на индивидуальные фонемы, привлекая также группы фонем и вероятности встречаемости групп. Эти группы могут быть диграммами, триграммами и т. д. Дру­гой тип вероятностей, представляющий интерес для изуче­ния языковой структуры — это условная вероятность, т. е. вероятность того, что некоторая фонема будет следовать за данной фонемой или группой фонем. Так, если р(а b...n)—это вероятность группы фонем (а b...n), тогда

p(a b ... n) = p(a)pa(bc ... n)

= p(a)pa(b)pab(cd ... п) (4)                                          (4)

= P(a)pa(b)pab(c)pabc(d ... n) и т.д.[21]

При таком способе общая вероятность группы связана с условными вероятностями следующих друг за другом фонем а, Ь, с и т. д., входящих в эту группу.

Если дана отдельная фонема /а/ или возможная группа фонем /a b ...n/, то фонемы /m/, которые могут следовать за данной фонемой или группой, имеют вероятности pab...n /m/. Тот факт, что эти вероятности изменяются в соответ­ствии с характером т, означает известную возможность предсказания. Это свойство обеспечивает другую форму «избыточности» в языке — качество, имеющее большое зна­чение при слуховом восприятии речи (например, когда мы прислушиваемся к разговору в шумной комнате).

Если  в   русской   речи  слышится   палатальная    /v,/, можно быть уверенным, что за ней не последует никакой безударной гласной,  кроме /i/. После палатальной /b,/ вероятность безударной /а/ чрезвычайно мала; последо­вательность /nb,а/, например /g'olub,a/ (род.-вин. п. ед.ч.) и /gal'ub,a/ (деепричастие) необычна в языке. При   на­ших подсчетах мы нашли после палатальной /s,/ следую­щие фонемы с указанными частотами:

i

3

j

1

6

9

u

1

'u

1

16

а

1

m

2

'i

8

Следует особо отметить почти полное отсутствие соглас­ных и очень низкую частоту безударной /а/. С другой сто­роны, после непалатальной /s/ безударная /а/ в нашем материале встречается чаще всего: согласные встречаются после /s/ весьма свободно.

Наши цифры для фонем после /s/ таковы:

t          76

k        27

'u          1

р          9

i          5

'o          11

k,          3

m,         1

p          5

а         37

1         20

v,          1

u         6

m         5

1,        10

j          2

r          1

x          3

t,        30

'a         16

r,          1

v          6

n,         5

n        10

'i           1

Когда ввиду различия условных вероятностей стано­вится в известной степени возможным предсказание, то информация одной фонемы в речевой цепи оказывается меньше информации, которую содержит та же самая фоне­ма в изолированном положении. Если только фонема не первая в цепочке, мы знаем о ней кое-что еще до ее появле­ния. Информация, приходящаяся на фонему в речевой цепи, может быть точно определена в том смысле, о котором шла речь в предыдущих разделах. Мы можем даже получить формулу, аналогичную уравнению (1), которую можно бу­дет применить к связным группам фонем. Предположим, например, что мы подсчитали вероятности р (ab) всех фо­немных диграмм некоторого языка; тогда информация Н1 2, содержащаяся в каждой диграмме этого языка, рав­на в среднем:

H1 2 = - ∑p(ab) log p(ab)    битов на диграмму   (5).

Аналогичным образом для триграмм имеем:

Н1,2,3 = - ∑p(abc) log p(abc)   битов на триграмму        (6).

Если же мы подсчитываем различные условные вероят­ности р,(Ь), то окажется, что информация диграммы Н1 (2), содержащаяся в каждой второй фонеме диграммы, равна:

H1(2)= - ∑p(ab)logpa(b)                 (7).

Точно так же зная условные вероятности pab (с), мы полу­чим:

Н1,2 (3)=-∑p(abc) log pa,b(c)          (8).

Очевидно, эти различные величины информации, полу­ченные на основе различных таблиц вероятностей, связаны между собой. Чтобы доказать это, рассмотрим уравнение (4). Прологарифмируем обе его части и выведем затем сред­нее число для всех возможных групп (ab ... n):

 - ∑p(ab...n)log p(ab...n) =

 - ∑p(ab...n) [log p(a) + log pa(b) + log pa(c)...] или

Нn = Н1 + Н1(2)+Н1.2(3)+Н1,2,3,  (4)  битов на n-грамму(9).

Это означает, что информация, содержащаяся в груп­пе фонем, в среднем равна сумме информации, содержащих­ся в каждой последующей фонеме.

Мы подсчитали количество информации на диграмму и триграмму в соответствии с первым типом подсчета, т. е. учитывая границы между словами и между частями слож­ных слов. Найденные величины равны: 8,45 бита на диграм­му и 9,15 бита на триграмму. Если бы фонемы были неза­висимыми, соответствующие величины были бы равны: 9,54 бита на диграмму и 14,31 бита на триграмму. Как и следовало ожидать, рассматриваемые величины уменьшают­ся, если единицы в цепочке не являются независимыми.

Весьма ценные результаты обещает исследование, ко­торое пока еще не выполнено, состоящее в подсчете дист­рибуции различительных признаков во времени, как это было предложено в пункте а § 4. Берем большой отре­зок текста, транскрибируемый фонематически, под каж­дым символом пишем колонку плюсов, минусов и нулей, обозначающих различительные признаки соответствующей фонемы, например, в том порядке, какой мы приняли в табл. А. Горизонтальные последовательности плюсов, ми­нусов и нулей, получающиеся при этом, можно исполь­зовать как меру длительности различительных признаков. Вероятности таких последовательностей изображаются как p + (m), р_(т), р0(m), где m=1,2,3 и т.д. Очевид­но, такая дистрибуция создает основу для установления фонологических различий между языками статистическим путем.

Статистический анализ фонем и их последовательно­стей в связных сообщениях необходимо дополнить ана­логичным анализом словаря; такой анализ нужен для понимания дистрибуции фонем в лексическом коде дан­ного языка[22]. Сравнение результатов того и другого анализов, несомненно, должно быть крайне поучитель­ным. Статистический анализ словаря позволяет нам сде­лать выводы о том, какие именно последовательности фонем характерны для разных типов морфем и для слов различных грамматических категорий[23]. Кроме того, на этом анализе основываются точные утверждения о соче­таниях фонем с вероятностями 1 и 0 (ведь никакая по­следовательность фонем никогда не может встретиться в сообщении, если она не содержится в коде).

Наконец, к проблемам, которые остается еще иссле­довать, относится вопрос об условных вероятностях, «действующих назад», т. е. зависящих не от предыдущих, а от последующих событий, или, на языке лингвистиче­ских терминов, вопрос не о прогрессивном, а о регрессив­ном влиянии фонем на другие фонемы в последовательно­сти. Сравнение результатов описанного ранее и предло­женного здесь исследования имеет большое значение, ибо очевидно, что для различных типов последовательностей предсказываемость в одном направлении больше, чем в дру­гом. Анализ этих фактов предоставит наиболее надежную базу для построения статистической модели слога как ре­куррентного[24] звена в речевой цепи.



[1] E. Colin Cherry, Morris Halle, Roman Jakobson, Toward the logical description of languages in their phonemic aspect, «Language», vol. 29, № 1, 1953, p. 34—47.

[2] См., в частности, С. E. Shannon W. Weaver, The mathematical theory of communication, Urbana, 1949; D. M. Ma c-k a y, In search of basic symbols в «Cybernetics: Transactions of the eighth Conference», New York, 1952; The nomenclature of information theory, ibid.

[3]  Этот анализ был выполнен как часть исследований по совре­менному русскому языку, которые ведутся факультетом славянских языков и литератур Гарвардского университета.

[4] А. Пешковский, 10 тысяч звуков русского языка, сбор­ник статей «Методика родного языка, лингвистика, стилистика, поэ­тика», Л.,  1925, стр. 167—191.

[5] Более детальное описание различительных признаков, а также их акустических и артикуляционных коррелятов см. у R. Jakob-son, С. G. M. Fant and M. Halle, Preliminaries to speech analy­sis, 2-d printing (MIT Acoustics Laboratory, «Technical Report», № 13, 1952).

[6]  A. Isacenko, Fonetica spisovnei ruStiny. Bratislava, 1947, стр. 177, 182.

[7]  Мы следуем системе транскрипции Международной фонетиче­ской ассоциации, в которую мы внесли три изменения: мы исполь­зуем запятую внизу после буквы для обозначения палатальности, ставим знак ударения перед знаком, обозначающим гласный, а яркие смычные обозначаем тем же знаком, что и соответствующий взрыв-ный, с добавлением циркумфлекса.

[8] Ср.  [угол] — [угол'];   [полка] — [пол'ка]. — Прим. перев.

[9] Существует два варианта современного нормированного рус­ского языка. Более старый закреплен в «Толковом словаре русского языка» под ред. Д. Ушакова (М.,  1935—1940). Другой отстаивает особенно С. Обнорский; он представлен в «Словаре русского языка» под ред. С. Ожегова (М., 1949). В основном   мы принимаем нормы Ушакова; но чтобы включить все фонемные различия, возможные в литературном русском языке, в традиционную группу фонем, мы добавляем новую фонему /g,/ отличную от /g/. Такие новые образова­ния, как деепричастие /b,ir,ig,la/, отличное от /b.ir.ig'a/"«берега», допускаются в литературном языке Обнорским и его последова­телями.

[10] * Согласно нормам современного литературного произношения, это предложение транскрибируется следующим образом: [их | ида | |iие х'ида].Прим. перев.

[11] Речь идет не о фонетическом влиянии типа ассимиляций и т. д., а о статистическом: сведения о том, какая согласная предше­ствует данной гласной, не дают ничего нового для предсказания со­гласной, следующей за данной гласной.— Прим. перев.

[12] К числу сложных слов русского языка мы относим все слова с неначальным корнем: слова, имеющие более чем один корень, на­пример: /adna-abr'aznij/   «однообразный»; слова с префиксами,  на­пример: /za-astr'it,) /  «заострить»,   /iz-vad,'it, / «изводить»; и слова с предшествующими предлогами, которые фонематически рассматри­ваются   как   префиксы,   например:  /za-akn'o/ «за окно»,  /iz-vad’i/ «из воды».

[13] Shannon  and Weave r, указ, раб., стр. 102: «Система, которая порождает последовательность символов... в   соответствии с определенными вероятностями, называется стохастическим про­цессом (stochastic process); частный случай этого процесса, когда вероятности зависят от предшествующих событий, называется мар­ковским процессом или цепью Маркова». В своей статье «Пример статистического исследования над текстом «Евгения Онегина», иллю­стрирующий связь испытаний в цепи» («Известия Импер. Академии Наук», СПб., т. 7, 1913) А. А. Марков изучил дистрибуцию гласных и согласных букв в части знаменитой поэмы Пушкина и нашел, что условные вероятности букв не соответствуют случайной последова­тельности, но зависят от предшествующей буквы или букв.

[14] * Т. е. тот факт, что log2N есть дробь.— Прим. перев.

[15]  Binary digit — двоичная цифра.— Прим. перев.

[16] log pi — это количество информации на одну фонему; это количество для данной фонемы i зависит от ее вероятности (pi), что н выражает формула: - ∑ pi log pi,, — так называемое вероятностное среднее или «математическое ожидание» количества информации на фонему.— Прим. перев.

[17] David A. Huffman, A method for the construction of minimum redundancy codes (Proceedings of the IRE, 40:9, 1952, p. 1098—1101).

[18] Так, например, двумя различительными признаками в опти­мальном коде не характеризуется ни одна фонема, а в естественном коде русского языка — одна; тремя различительными признаками — две фонемы в оптимальном коде и ни одна в естественном: четырьмя — соответственно 2 и 6, пятью — 11 и 4 и т. д.— Прим. перев.

[19]  Марков в своем исследовании дистрибуции букв в поэме «Евгений Онегин» получил величину 0,4317 для гласных и 0,5683 для согласных. Его цифры удивительно близки к нашим, особенно если принять во внимание, что в некоторых случаях Марков счи­тал йот /j/ гласной, в других же вообще ее не учитывал.

[20] См. более подробно R.   Jakobson, Sound and meaning.

[21] Запись «ра (bc... n)» означает: «условная вероятность группы (bс...n) после а», т. е. вероятность того, что группа (bс...n) следует после а; запись pab(cd...n) означает: «условная вероятность группы (cd...n) после группы ab» и т. д.— Прим. перев

[22] В терминах Р. Карнапа следовало бы сказать, что частот­ность фонем, изученная в русских словах-событиях (events) должна быть исследована и в словах-схемах (designs), точно так же, как дистрибуция различительных признаков исследовалась в фонемах-схемах; см. R. С а г n a p, Introduction to semantics, §3, Cambridge, Mass., 1946. Чарльз С. Пирс, основатель современной семиотики, сказал бы, что наряду с использованием фонемных легисигнумов в лексических синсигнумах необходимо изучать использование фо­немных легисигнумов в лексических легисигнумах; см. Ch. S. Р е i г с е, Collected papers, t. II, Cambridge, Mass., 1932, §§ 245— 247. (Прим. .перев. см. ниже)

[«Слова-события» или вообще «знаки-события» Карнапа, а так­же «синсигнумы» Пирса (sinsign, от англ, single «единственный» и •,sign «знак») — это совершенно конкретные, реальные знаки, в частности какие-то данные слова или буквы в тексте; «слова-схемы» или вообще «знаки-схемы» и «легисигнумы» (от лат. «закон») — это классы одинаковых знаков. Буква «А» как некая форма или как определенное место в наборной кассе — это буква-схема (легисигнум); конкретное употребление буквы «А» или типографской ли­теры в указанном месте текста — это буква-событие (синсигнум). Различие между знаками-событиями и знаками-схемами (синсиг-нумами и легисигнумами) аналогично различию между конкрет­ными и абстрактными буквами и словами, которое проводится А. А. Марковым в его работе «Теория алгорифмов», 1954].— Прим. перев.

[23] Исчерпывающий статистический анализ фонологической структуры русских корневых морфем проводится (Робертом Абернаси) в рамках исследовательской программы, упомянутой в прим. 2.

[24] Рекуррентная (возвратная) последовательность — это такая последовательность, каждый n+ 1 член которой может быть опреде­лен, если известны п предшествующих членов последовательности. — Прим. перев.