Ребят, вы б, прежде чем умничать и глупые догадки строить, поискали в том же гугле и википедии, а?
//текст доступен после регистрации//Никаких суперкомпьютеров там нет. Основной критерий выбора железа - производительность на доллар. Доллар здесь - как покупка железа, так и его энергообеспечение (которое в перспективе больше цены самого железа). Поэтому все сервера - вполне обычные компы: от celeron-ов до core i7. Думаю они даже на серверные процы (всякие Xeon-ы) не тратятся, т.к. там железо в разы дороже без какого-либо существенного выигрыша в производительности.
А скорость поиска достигается во-первых индексацией (представьте себе обыкновенный словарь - найти любое слово в нём ведь труда не составляет?), во-вторых огромным количеством этих серверов. В 2000 году их было 6 тысяч, в 2006 году - уже 450 тысяч. Сколько сейчас - остаётся только догадываться. Где-то я слышал цифру в 2 миллиона. Состав постоянно пополняется.
В обработке наших запросов косвенно участвует сразу куча серверов.
Один сервер думает у кого про что спрашивать, собирает ответы и считает их релевантность;
Другие ищут у себя номера документов, в которых искомые слова упоминаются и говорят сколько таких нашли (так что цифры "Результаты 1 - 10 из примерно 240 000 000" вполне реальные, а не с потолка взятые);
Третьи выдают сами документы (тот самый десяток, а не 240 миллионов);
Четвёртые запоминают наиболее частые вопросы и найденные ответы, чтобы не искать всё заново;
И т.д., и т.п.
Ну и разумеется при обработке вашего запроса гугл не лезет на чужие сайты и не ищет там слова из вашего запроса. Всё уже есть у него в индексах. А информация обновляется быстро, потому что серверов, которые прочёсывают интернет на предмет обновления (Web crawler-ы, spider-ы или харвестеры), тоже дикое количество. Частота проверки конкретного сайта зависит от истории его обновления. Если предыдущие проверки показали, что сайт не обновляется, частота проверок постепенно снижается с минут до часов/дней.
Так что всё там шоколадно, и никто не рвёт пупок листая интернет в поисках вашего вопроса и не передаёт терабайты данных на каждый запрос.