Партнер PwC Джон Свекла рассказывает, какие концепции и феномены нужно понимать современному бизнесмену, чтобы не отстать от конкурентов.
До тех пор пока вы не поймете теорию вычислимости Тьюринга, теорему Коуза об операционных издержках, закон Белла о классах компьютеров, концепцию модульности Болдуина и Кларка, а также закон Накамото о распределенной бухгалтерской книге, вы не готовы возглавить бизнес в цифровую эпоху, цитирует слова Джона Свекла бизнес-портал Strategy-business.
Теория вычислимости Тьюринга
Фото: математик Алан Тьюринг, http://www.bbc.com/
Машины могут просчитать любое постоянно растущее количество проблем, которые возможно просчитать. В 1930-х и 1940-х английский математик Алан Тьюринг сделал новаторские открытия о вычислимости и ее последствиях. Он определил то, что назвал «вычислимыми» действиями: любая задача, которую может решить теоретическая машина (в его случае, математическая модель с процедурой, подобной компьютеру). Решив, что вычислимость может быть определена математически, Тьюринг тогда заявил, что машины могут выполнять вычислимые задачи так же, как люди. В книге «Введение в вычисление: исследования в языке, логике и машинах» преподаватель Университета Вирджинии Дэвид Эванс пишет: «Проблема вычислима, если она может быть решена каким-нибудь алгоритмом. Проблема, которая не вычислима, не может быть решена никаким алгоритмом».
В 1950 году Алан Тьюринг продемонстрировал вычислимость методом, который сегодня все знают как «тест Тьюринга». Он провел эксперимент, в котором попросил участников обмениваться письменными сообщениями с неким объектом в другой комнате. Многие из них не смогли угадать, был ли отвечающий человеком или компьютером. Это продемонстрировало, что компьютерная программа может имитировать человеческий разум достаточно хорошо, чтобы действовать, как человек, выполняющий ту же задачу. Или, как Тьюринг выразился в своей статье, программа могла «удовлетворительно играть в имитационную игру» для любой вычислимой задачи. Он предсказал, что через 50 лет машины будут способны в течение пяти минут обманывать человека в 30% случаев. Его предсказание сбылось в 2014 году.
Никто не сможет назвать наверняка ни те действия, которые будут восприимчивы к теории Тьюринга в будущем, ни те, что будут неподвластны ей. Но значение работы Тьюринга над вычислимостью и искусственным интеллектом огромно. Она положила начало компьютерному веку, показав, что цифровая техника потенциально может делать нашу работу лучше нас.
Теорема операционных издержек Коуза
Фото: Рональд Коуз, https://oldtext.whotrades.com
Без операционных издержек самый эффективный результат будет преобладать на любом рынке. Важнейшая фраза в этой теореме — «без операционных издержек». Это означает, что вложение денег, времени и внимания в обмен товарами и услугами определит, насколько конкурентоспособной будет ваша компания. Или, иначе, способны расти только те компании, которые держат внутренние операционные издержки (собственные расходы) ниже, чем внешние операционные издержки (стоимость поддержания деловых отношений с другими участниками рынка).
Начиная с 1930-х, экономист Рональд Коуз подробно изучал, почему фирмы возникают и почему они приходят в упадок. (Он получил Нобелевскую премию по экономике в 1991 году частично за эту работу.) Его главный вывод стал известен как теорема Коуза: компания становится жизнеспособной, когда самостоятельное исполнение каких-то действий обходится ей дешевле, чем передача их внешнему подрядчику. Если бы не это, компаний не было бы вообще; торговля работала бы только через рынки, а люди работали бы вместе только на конкретных проектах.
Новые цифровые технологии усиливают давление, связанное с теоремой Коуза, потому что уменьшают внешнюю стоимость. Некоторые наблюдатели полагают, что эти технологии положат конец крупным компаниям. Поисковые системы, например, сделали получение информации намного проще и дешевле, чем в прошлом, и таким образом разрушили преимущество, ранее принадлежавшее крупным компаниям с большими ресурсами.
Но переход на цифровые технологии также уменьшает и внутренние затраты — по крайней мере, для компаний, которые используют технологии эффективно. Это изменило экономику внутренней организации. Например, облачные сервисы, которые обеспечивают высокий уровень производительности без увеличения штатов и больших капиталовложений при необходимости временного расширения. Веб-сервисы Amazon, Microsoft и Google уже извлекли выгоду из этой тенденции, и такие сервисы, вероятно, будут множиться.
Закон Белла о рождении и смерти классов компьютеров
Фото: Гордон Белл, http://www.getsaga.com/
Примерно каждое десятилетие появляется новый класс вычислительных устройств с более низкой ценой — и изменяет все. Гордон Белл — один из самых знаменитых инженеров в компьютерной отрасли. Он проектировал большинство важнейших серий миникомпьютеров PDP в Digital Equipment Corporation; он задумал и создал первый музей компьютерной истории в Бостоне; а его эксперименты с «life-logging» — автоматическим сбором изображений, звуков и документов повседневной жизни в цифровое архивное хранилище — углубили наше понимание того, что могут сделать компьютеры.
Белл — великий мыслитель. В статье 1972 года он заявлял, что примерно каждое десятилетие достижения в полупроводниках, системах хранения, интерфейсах и сетях приводят к разработке нового класса компьютера с более низкой ценой, что влечет изменения в индустрии и на рынке. Новинка вытесняет (по крайней мере, частично) предыдущий класс: смартфоны серьезно потеснили персональные компьютеры, которые вытеснили миникомпьютеры, а те в свою очередь вытеснили мейнфреймы. Конечно, мейнфреймы все еще существуют как суперкомпьютеры и облачные сервисы, но новые классы компьютеров продолжают перестраивать наши возможности. Закон Белла предполагает, что технология развивается по принципу периодически нарушаемого равновесия, снова и снова подталкивая мир в новую реальность.
Новейший класс представлен «интернетом вещей» (Internet of Things, IoT). Он подразумевает миниатюрные компьютеры, достаточно маленькие, чтобы внедрить их повсюду в индустриальном обществе, и достаточно сильные, чтобы отслеживать, анализировать и общаться. Этот класс уже показывает огромный рост. Банковское дело, автомобили, защита, здравоохранение и безопасность — лишь несколько примеров отраслей, которые модернизируют свои продукты и услуги на основе этой технологии. Возможности, которые предоставляют встроенные компьютеры, будут проясняться по мере развития «интернета вещей», но нет сомнения, что этот новый класс будет таким же революционным, как его предшественники.
Концепция модульности Болдуина и Кларка
В конце 1990-х преподаватели Гарвардской школы бизнеса Карлисс Болдуин и Ким Кларк отметили, что модульность, или модульная конструкция, — ключевой фактор скорости инноваций. Модульность — методика, используемая в разработке программного обеспечения, автомобильном дизайне и других аспектах инженерного дела. Благодаря ей сложный технологический проект проникает во многие функционально соответствующие компоненты — стандартизированные, где стандартизация требуется, и индивидуально спроектированных, где необходимо дифференцирование.
В системе с высокой модульностью стандартизированные части или модули легко могут быть заменены, модернизированы и адаптированы к различным системам. Модульность облегчает (и удешевляет) управление комплексным проектированием. Например, некоторые части модульной компьютерной системы могут быть открыты для внешних разработчиков (которые могут проектировать приложения и другое вспомогательное оборудование для нее), в то время как другие части приватны и защищены от внешнего вмешательства. Настоящая модульная система может быть адаптирована для отдельных клиентов без перестройки всего проекта.
Понятие модульности также относится и к компаниям. Относительно модульные организации могут ввести новшества быстрее, чем другие, потому что темп их научных исследований не тормозят самые медленные подразделения или продукты.
Закон Накамото о распределенной бухгалтерской книге
Фото: Сатоши Накамото, http://www.digitaltrends.com/
Бизнес-операции улучшаются, когда доверием управляет система, а не посредники. Пока еще никто не называл это «законом Накамото», однако принцип, лежащий в основе блокчейн-технологии, уже стал фундаментальным для проверки и сертификации. В технической статье, опубликованной в 2008 году, Сатоши Накамото (псевдоним человека, чье реальное имя остается неизвестным) заметил, что интернет-торговля использует финансовые организации как доверенную третью сторону, которая обрабатывает электронные платежи. Это излишне сложно и уязвимо к жульничеству и сбоям. Он утверждал, что если бы две стороны могли в электронном виде проводить сделки друг с другом без внешнего участия, онлайн-сделки были бы легче и дешевле.
Несколько месяцев спустя Накамото выпустил первую версию биткоин: электронную валюту с распределенной бухгалтерской книгой.
Закон Накамото — естественное продолжение четырех принципов, описанных ранее. Как предсказал бы Тьюринг, проверка, которая всегда была областью человеческого труда, становится электронной. Этот закон также отражает описанное у Коуза сокращение операционных издержек, которые могут уменьшить многие затраты, связанные с финансовыми услугами. Это становится возможным благодаря появлению нового класса компьютеров, связанных серверов и других устройств, работающих с облачным софтом и шифрованием. И это демонстрирует эффективность модульности: хотя ядро технологии остается скрытым, сами биткоины соединяются как совместимые блоки, каждый из которых получен на основании кода предыдущего.