Размышления о развитии вычислительной техники
Читая замечательную книгу по архитектуре операционных систем Эндрю Таненбаума, наткнулся на интересную мысль, которой хочу с вами поделиться и подискутировать дорогие читатели.
После успеха систем CTSS Массачусетсский технологический институт, исследовательский лаборатории Bell Labs и корпорация General Electric, решили начать разработку «компьютерного приложения» - машины, которая должна поддерживать одновременную работу сотен пользователей в режиме разделения времени. Образцом для новой машины послужила система распределения электроэнергии. Когда вам нужна электроэнергия, вы просто вставляете вилку в розетку и получаете энергии столько, сколько вам нужно.
Очень интересный подход : “Когда вам нужна электроэнергия, вы просто вставляете вилку в розетку и получаете энергии столько, сколько вам нужно.” В 3-ем поколении развития ЭВМ, машины еще не стали персональными, так как до сих пор были довольно велики и дорогостоящими. “И вместо того что бы хранить библиотеку дома, книжное хранилище сделали общественными, где каждый по желанию и за минимальные(доступные) средства мог взять книгу в аренду, прочитать и вернуть. Так как в основном книги простаивают в библиотеке 80 процентов своего времени.” Эту аналогию я привел для того что бы лучше отследить процесс перехода к разделяемым ресурсам. Возьму на себя смелость сделать поспешный вывод исходя из истории развития ЭВМ :
- Допустим компьютерная технология X развивается, и на своем этапе развития она занимает большие физические объемы и целевое предназначение ее пока нечетко определено (или узко определено). Плюс, полезную работу она выполняет только 20-30 % за все время жизни, в остальном она просто бездействует. Поэтому этот ресурс простоя, можно попытаться задействовать разделив нагрузку между несколькими участниками. То есть создать очередь запросов(заданий, указаний), которые непрерывно будут взаимодействовать с Х. А наполняться эта очередь сможет или прямым взаимодействием с X, или через посредника, который будет доставлять эти задания к X. После наступает этап развития X, путем увеличение быстродействия и уменьшения физических размеров. Этот этап можно назвать, этапом минификации и персонализации. Нет необходимости идти к X или общаться с посредником. Х стал настолько мал и вместителен, что может находиться у каждого дома. После X усложняется максимально вертикально, и достигает своего предела. Одного X уже не достаточно. После происходит компоновка n * X = F . Это опять увеличивает размер и стоимость. Потребности для применения F станут очень узкими и пока до конца не определены. F простаивает 70-80 % времени. Спрос на такие мощности пока не велик, но со временем он будет расти и цепочка развития замкнется.
Сейчас происходит этап виртуализации, где применяется все тот же подход, подключи провод в розетку, и у тебя дома все мощности гугла. Следующим этапом, следуя из приведенной теории, будет минификация и наличие таких мощностей у нас дома, в мобильных устройствах и т.д. Устройствах в которых будет множество ядер, и гекса-байты памяти. Но в какой то момент мы упремся в предел по количеству ядер и по плотности записи информации. И начнем придумывать новые решения, которые будут занимать большие пространства, и узкую специализацию. Может быть это будут квантовые вычислительные устройства, может быть эти устройства вовсе и не будут вычислять, а уже выдавать ответы. Может быть мы вернемся обратно, и найдем способ повысить тактовую частоту процессора путем использования света вместо электричества.
Интересно будет услышать ваши мысли и идеи.