Когда-то, лет 40 назад, на теорию информации возлагали большие надежды:
Кульбак С. Теории информации и статистика. Пер. с англ. Д.И. Гордеева и А.В. Прохорова. Под ред. и с предисловаитем А.Н. Колмогорова. _ М.: Наука, 1967. - 408 с.
Понравившийся А.Н. Колмогорову информационный критерий - разность выборочных энтропий - предназначен для проверки однородности двух независимых выборок (гл.6, п.5, с. 140). Т.е. для решения той же задачи, для которой используют критерии Смирнова, Лемана-Розенблатта, Вилкоксона, Крамера-Уэлча и др.
Указанный в начале темы критерий предназначен, насколько могу судить, для сравнения с равномерным распределением на множестве всех осложнений. Имеет ли такое равномерное распределение какой-либо медицинский смысл - сомневаюсь.
Цитата:
Затем сравнивают R1 и R2 и делают вывод о том, какой метод лечения лучше с точки зрения меньшего числа осложнений.
На самом деле сравнивают не число осложнений и не тяжесть осложнений, а степень отклонения от одинаковой выраженности всех осложнений, т.е. от равномерности распределения на множестве всех осложнений. Формула
Цитата:
Hm=lgK
соответствует этому равномерному распределению.
В целом можно порекомендовать сначала сформулировать задачу, которую желательно решить, затем описать вероятностную модель порождения данных, а только потом подбирать подходящий метод решения задачи.