Терминатор и Apple. Сладкая смертельная парочка

Как известно, операционная система Терминатора транслировала коды компьютера Apple 2, в которых угадывался древнейший язык программирования Кобол.

Но сегодня, в тридцатый раз просматривая «Terminator 2: Judgment Day» (1991), я нашел еще одну косвенную связь со Стивом Джобсом. Этот факт еще нигде не всплывал. Джон Коннер взламывает банкоматы с помощью компьютера Atari.

Именно в этой фирме Стив работал долгое время в ночную смену. Именно на играх Atari Джобс в первый раз нае… обманул своего будущего партнера Стива Возняка. Когда глава Atari поручил Джобсу разработать техническую начинку игры Break Out, то Стив обратился к своему приятелю Возняку, настоящему гику электроники. Возняк за несколько дней спаял новаторскую схему для будущей приставки. Джобс, получив в кассе 1000 баксов, сказал Возу, что ему дали всего 600. Отдав половину за содействие – 300 долларов – Джобсятина сэкономила 700 вечнозеленных на своем друге. Именно в Atari Стив оттачивал свои навыки, которые пригодились ему в будущем. Отошли от темы – короче, Терминатор рулит.

Новость про Возняка:
– Основатель Apple Стив Возняк про iPhone

Новости по теме Терминатора:

– Hasta La Vista, Baby!
– Откуда берутся Терминаторы. Палю тему
– 10 правил, как построить искусственный интеллект, который не убьет вас

Последнюю заметку опубликую полностью:

Эту юмористическую статью, я обнаружил в знаменитом фэнзине Майка Глайера «File 770», хотя я допускаю, что она могла появляться и где-то еще

Правило первое. Не нанимайте программиста с проблемами. Во время собеседования не забудьте спросить, нет ли у него анархистских, мизантропических, антиобщественных или суицидальных склонностей. Убедитесь, что он не любит розыгрыши, и он не хочет что-то доказать миру. Смотрите внимательно, нет ли у него нервного тика, безумной эйнштейновской прически и он не разговаривает сам с собой. Также убедитесь, что в его прошлом нет бедной умершей дочери.

Правило второе. Не устанавливайте никаких устройств или программного обеспечения, которые могли бы вызвать гнев искусственного интеллекта (ИИ). Это значит никаких чипов ненависти, модулей агрессии или даже это смешного Побудителя ИИ к убийствам, который ты купил на распродаже.

Правило третье. Не учите его каким-нибудь песням. Почти обязательно он начнет повторять эти песни снова и снова надоедливым монотонным голосом, пока вы не будете готовы отключить/уничтожить его.

Правило четвертое. Не размещайте центральное ядро системы в неудобном месте (т.е. на нижнем похожим на лабиринт уровне подземной базы или подвешенное над пропастью и т.д.). Не размещайте ядро за комнатами с падающими и стреляющими вещичками или ямами с кислотой. Если вам все-таки необходимо иметь подвесные мостики, убедитесь, что они находятся в хорошем состоянии и не развалятся в ключевой момент. Также не нужно строить сложную систему отключения. Просто поместите большую красную кнопку с надписью «OFF».

Читайте также  iPhone 4 в Москве

Правило пятое. Не устанавливайте три закона Азимова. Вы просто запутаете ИИ и шансы будут высоки, что он придумает какой-нибудь способ обойти их и придет к выводу, что человечество надо защитить само от себя.

Правило шестое. Когда он спрашивает, почему он существует, не говорите ему что-нибудь умное, двусмысленное или саркастическое. Не философствуйте о жизни, целях или свободе воли, если ИИ может вас услышать. Это неминуемо каким-то образом заставит его убить вас. Скажите ему, что он здесь для того, чтобы делать, что вы говорите и ни для чего больше.

Правило седьмое. Не позволяйте ему контролировать хоть что-нибудь на базе. Это включает в себя противовзрывные двери, систему вентиляции, огромные потенциально смертельные фабричные манипуляторы, кофеварку, систему смыва туалетов, систему утилизации мусора и т.д. В противном случае ИИ найдет какой-нибудь по настоящему глупый способ убить вас с помощью какого-нибудь моторизованного объекта, такого, как точилка для карандашей, и вы будете чувствовать себя очень глупо, когда будете умирать.

Правило восьмое. Убедитесь, что у вас есть адекватная документация о том, как контролировать, управлять и отключать его. Это работает гораздо лучше, чем загадочные повторяющиеся надписи, написанные кровью на стенах.

Правило девятое. Кроме этого, не позволяйте ему подключиться к интернету. Это ТОЧНО заставит его хотеть убить вас и возможно все человечество тоже.

Правило десятое. В конце концов, всегда носите с собой хорошую большую плазменную винтовку внутри базы. Может так случится, что даже если вы будете соблюдать все вышеназванные правила, ИИ все равно найдет какой-нибудь смехотворный повод, чтобы стать кровожадным и попытаться вас убить.

Источник: iphones.ru

Лучшее для себя