Штучний інтелект (ШІ) — одна з найбільш трансформаційних технологій сучасності, що продовжує змінювати наш світ, впливаючи на різні галузі від медицини до транспорту, від освіти до мистецтва. Але що таке штучний інтелект, звідки він з’явився і як розвивався протягом десятиліть? Ця стаття розглядає історію, сутність та еволюцію штучного інтелекту на основі перевірених наукових джерел.
Що таке штучний інтелект?
Штучний інтелект — це галузь комп’ютерних наук, яка прагне створити машини, здатні виконувати завдання, що традиційно вимагають людського інтелекту. Це включає такі задачі як розпізнавання образів, розуміння природної мови, прийняття рішень та навчання.
За визначенням Джона Маккарті, одного з засновників цієї галузі, штучний інтелект — це “наука і техніка створення інтелектуальних машин, особливо інтелектуальних комп’ютерних програм” [1].
Фундаментально ШІ можна розділити на два типи:
- Вузький або слабкий ШІ — системи, створені для виконання конкретних завдань (наприклад, розпізнавання обличчя або гра в шахи)
- Загальний або сильний ШІ — гіпотетичні системи з інтелектом на рівні людини, здатні виконувати будь-яке інтелектуальне завдання, яке може виконати людина
Зародження ідеї та рання історія
Ідея створення мислячих машин існувала задовго до появи сучасних комп’ютерів. Ще в античні часи філософи розмірковували про можливість існування штучних істот, а механічні автомати з’явилися в стародавньому Китаї, Греції та середньовічному арабському світі.
Проте концептуальним фундаментом сучасного ШІ стали роботи першої половини XX століття:
- 1936: Алан Тюрінг представив концепцію абстрактної “машини Тюрінга”, яка могла імітувати будь-який комп’ютерний алгоритм [2].
- 1943: Воррен Маккаллок і Волтер Піттс розробили першу математичну модель нейронної мережі [3].
- 1950: Алан Тюрінг опублікував статтю “Обчислювальні машини та інтелект”, де запропонував знаменитий тест Тюрінга для визначення наявності інтелекту у машини [4].
Дартмутська конференція та народження галузі (1956)
Термін “штучний інтелект” був офіційно запроваджений на Дартмутській конференції 1956 року, організованій Джоном Маккарті, Марвіном Мінскі, Натаніелем Рочестером та Клодом Шенноном. Ця двомісячна конференція вважається офіційним народженням ШІ як окремої наукової дисципліни [5].
У запрошенні на конференцію Маккарті та його колеги заявили про свою віру в те, що “кожен аспект навчання або будь-яка інша особливість інтелекту може бути настільки точно описана, що машину можна створити для її імітації”.
Золотий вік: перші успіхи (1956-1974)
Після Дартмутської конференції наступні два десятиліття характеризувалися швидким прогресом та оптимізмом:
- 1957: Френк Розенблатт розробив “перцептрон” — перший алгоритм для навчання найпростішої форми нейронної мережі [6].
- 1958-1959: Джон Маккарті створив мову програмування Lisp, яка стала основною мовою для досліджень ШІ [7].
- 1961: Перший промисловий робот “Unimate” був встановлений на заводі General Motors.
- 1964: Джозеф Вейценбаум створив ELIZA — ранню програму для обробки природної мови, яка могла імітувати розмову з психотерапевтом [8].
- 1965: Едвард Файгенбаум розробив першу експертну систему “DENDRAL”, здатну визначати молекулярну структуру органічних сполук [9].
- 1968: Террі Віноград створив SHRDLU — програму, що демонструвала розуміння природної мови в обмеженому контексті “світу блоків” [10].
Дослідники цього періоду були надзвичайно оптимістичними. Марвін Мінскі заявив у 1967 році: “Протягом покоління… проблема створення ‘штучного інтелекту’ буде в основному вирішена” [11].
Перша зима ШІ (1974-1980)
Однак оптимізм зіткнувся з реальністю, коли дослідники усвідомили обмеження своїх підходів:
- Обчислювальна потужність комп’ютерів того часу була надто обмеженою.
- Складність проблем ШІ виявилася набагато більшою, ніж спочатку припускалося.
- Ранні методи, які добре працювали на простих демонстраційних прикладах, не масштабувалися до складніших реальних завдань.
Це призвело до скорочення фінансування та загального песимізму щодо можливостей ШІ, що отримало назву “зима ШІ” [12].
Експертні системи та відродження (1980-1987)
1980-ті роки принесли нове відродження ШІ завдяки успіху експертних систем — програм, що імітували процес прийняття рішень людиною-експертом:
- 1980-1981: Комерційні експертні системи R1 (для конфігурації комп’ютерних систем) та MYCIN (для діагностики інфекційних захворювань) продемонстрували практичну цінність ШІ [13].
- 1981: Японія запустила амбітний “Проект комп’ютерів п’ятого покоління”, націлений на розвиток ШІ [14].
- 1986: Девід Румельхарт, Джеффрі Хінтон і Рональд Вільямс опублікували алгоритм зворотного поширення помилки для навчання нейронних мереж [15].
Друга зима ШІ (1987-1993)
Проте бульбашка експертних систем також лопнула:
- Спеціалізовані комп’ютери для ШІ не змогли конкурувати з тодішніми персональними комп’ютерами за співвідношенням ціна/продуктивність.
- Експертні системи виявилися дорогими в обслуговуванні та негнучкими.
- Проект комп’ютерів п’ятого покоління не досяг своїх амбітних цілей [16].
Сучасна ера: машинне навчання і великі дані (1993-2011)
1990-ті та ранні 2000-ні роки принесли більш прагматичний підхід до ШІ. Замість спроб моделювати людські міркування, дослідники зосередилися на розробці статистичних методів та алгоритмів машинного навчання:
- 1997: Комп’ютер Deep Blue від IBM переміг чемпіона світу з шахів Гаррі Каспарова [17].
- 1998: Том Мітчелл дав класичне визначення машинного навчання: “Комп’ютерна програма навчається з досвіду E щодо класу завдань T та показника продуктивності P, якщо її продуктивність при завданнях T, виміряна P, покращується з досвідом E” [18].
- 2006: Джеффрі Хінтон опублікував проривну роботу про глибоке навчання, що відродило інтерес до нейронних мереж [19].
- 2010: ImageNet, масивний датасет зображень, став каталізатором для прогресу в комп’ютерному зорі [20].
Революція глибокого навчання (2012-теперішній час)
2012 рік вважається поворотним моментом у розвитку ШІ. Нейронна мережа AlexNet, розроблена Алексом Крижевським, Іллею Суцкевером та Джеффрі Хінтоном, виграла змагання з розпізнавання зображень ImageNet з значною перевагою над традиційними підходами [21].
Це зумовило вибух інтересу до глибокого навчання, який продовжується і сьогодні:
- 2014: Генеративно-змагальні мережі (GAN), розроблені Яном Гудфеллоу та колегами, відкрили нові можливості для генерування реалістичних зображень [22].
- 2014: Facebook розробив DeepFace — систему розпізнавання облич на основі глибоких нейронних мереж з точністю 97.35%, наближеною до людської [23].
- 2016: AlphaGo від DeepMind перемогла чемпіона світу з гри Го Лі Седоля, продемонструвавши здатність ШІ опановувати надзвичайно складні стратегічні ігри [24].
- 2017: Трансформери, нова архітектура нейронних мереж, представлена Google, зробила революцію в обробці природної мови [25].
- 2018-2020: Поява великих мовних моделей, таких як GPT, BERT та T5, що продемонстрували вражаючі можливості в розумінні та генерації тексту [26, 27, 28].
- 2022-2023: Розвиток великомасштабних мультимодальних моделей, здатних працювати з текстом, зображеннями та іншими типами даних [29].
Сучасні напрямки досліджень
Сьогодні дослідження в галузі штучного інтелекту охоплюють широкий спектр напрямків:
- Надійний та етичний ШІ: Розробка систем, які діють відповідно до людських цінностей, справедливі та прозорі [30].
- Пояснюваний ШІ: Створення моделей, рішення яких можна інтерпретувати та пояснити [31].
- Навчання з підкріпленням: Алгоритми, що навчаються через взаємодію з середовищем [32].
- Нейросимволічний ШІ: Поєднання нейронних мереж з символічними методами міркування [33].
- Федеративне навчання: Методи навчання моделей на розподілених даних без їх централізації [34].
- Самоконтрольоване навчання: Підходи, що дозволяють моделям навчатися без явної розмітки даних [35].
Виклики та етичні питання
Розвиток ШІ породжує важливі соціальні, економічні та етичні питання:
- Конфіденційність і спостереження: Використання технологій розпізнавання обличчя та інших форм ШІ для масового спостереження [36].
- Упередження та дискримінація: Алгоритмічні упередження, що відображають історичну дискримінацію [37].
- Автоматизація праці: Потенційне витіснення робочих місць через автоматизацію [38].
- Автономна зброя: Етичні дилеми, пов’язані з системами озброєння, керованими ШІ [39].
- Контроль та безпека ШІ: Забезпечення того, що системи ШІ залишаються під людським контролем та діють безпечно [40].
Штучний інтелект пройшов довгий шлях від теоретичних концепцій до технології, що трансформує світ. Історія ШІ — це історія циклів підйомів та спадів, завищених очікувань та розчарувань, теоретичних проривів та практичних досягнень.
Сьогодні ми перебуваємо у періоді безпрецедентного прогресу, але також стикаємося з серйозними викликами. Майбутнє ШІ залежатиме не лише від технологічних проривів, але й від нашої здатності скеровувати цю потужну технологію у напрямку, що принесе користь людству.
Джерела
[1] McCarthy, J. (2007). What is artificial intelligence? Stanford University.
[2] Turing, A. M. (1936). On computable numbers, with an application to the Entscheidungsproblem. Proceedings of the London Mathematical Society, 2(1), 230-265.
[3] McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The bulletin of mathematical biophysics, 5(4), 115-133.
[4] Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433-460.
[5] McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A proposal for the Dartmouth summer research project on artificial intelligence.
[6] Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological review, 65(6), 386.
[7] McCarthy, J. (1960). Recursive functions of symbolic expressions and their computation by machine, Part I. Communications of the ACM, 3(4), 184-195.
[8] Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36-45.
[9] Feigenbaum, E. A., Buchanan, B. G., & Lederberg, J. (1971). On generality and problem solving: A case study using the DENDRAL program. Machine intelligence, 6, 165-190.
[10] Winograd, T. (1972). Understanding natural language. Cognitive psychology, 3(1), 1-191.
[11] Minsky, M. (1967). Computation: finite and infinite machines. Prentice-Hall.
[12] Hendler, J. (2008). Avoiding another AI winter. IEEE Intelligent Systems, 23(2), 2-4.
[13] Buchanan, B. G., & Shortliffe, E. H. (1984). Rule-based expert systems: The MYCIN experiments of the Stanford Heuristic Programming Project. Addison-Wesley.
[14] Feigenbaum, E. A., & McCorduck, P. (1983). The fifth generation: Artificial intelligence and Japan’s computer challenge to the world. Addison-Wesley.
[15] Rumelhart, D. E., Hinton, G. E., & Williams, R. J. (1986). Learning representations by back-propagating errors. Nature, 323(6088), 533-536.
[16] Russell, S. J., & Norvig, P. (2020). Artificial intelligence: A modern approach (4th ed.). Pearson.
[17] Campbell, M., Hoane Jr, A. J., & Hsu, F. H. (2002). Deep Blue. Artificial intelligence, 134(1-2), 57-83.
[18] Mitchell, T. M. (1997). Machine learning. McGraw-Hill.
[19] Hinton, G. E., & Salakhutdinov, R. R. (2006). Reducing the dimensionality of data with neural networks. Science, 313(5786), 504-507.
[20] Deng, J., Dong, W., Socher, R., Li, L. J., Li, K., & Fei-Fei, L. (2009). ImageNet: A large-scale hierarchical image database. In 2009 IEEE conference on computer vision and pattern recognition (pp. 248-255).
[21] Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in neural information processing systems, 25, 1097-1105.
[22] Goodfellow, I., Pouget-Abadie, J., Mirza, M., Xu, B., Warde-Farley, D., Ozair, S., … & Bengio, Y. (2014). Generative adversarial nets. Advances in neural information processing systems, 27.
[23] Taigman, Y., Yang, M., Ranzato, M. A., & Wolf, L. (2014). DeepFace: Closing the gap to human-level performance in face verification. In Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 1701-1708).
[24] Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., Van Den Driessche, G., … & Hassabis, D. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484-489.
[25] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., … & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.
[26] Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805.
[27] Radford, A., Wu, J., Child, R., Luan, D., Amodei, D., & Sutskever, I. (2019). Language models are unsupervised multitask learners. OpenAI blog, 1(8), 9.
[28] Raffel, C., Shazeer, N., Roberts, A., Lee, K., Narang, S., Matena, M., … & Liu, P. J. (2020). Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, 21(140), 1-67.
[29] Ramesh, A., Pavlov, M., Goh, G., Gray, S., Voss, C., Radford, A., … & Chen, M. (2021). Zero-shot text-to-image generation. In International Conference on Machine Learning (pp. 8821-8831).
[30] Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Vayena, E. (2018). AI4People—an ethical framework for a good AI society: opportunities, risks, principles, and recommendations. Minds and Machines, 28(4), 689-707.
[31] Arrieta, A. B., Díaz-Rodríguez, N., Del Ser, J., Bennetot, A., Tabik, S., Barbado, A., … & Herrera, F. (2020). Explainable Artificial Intelligence (XAI): Concepts, taxonomies, opportunities and challenges toward responsible AI. Information fusion, 58, 82-115.
[32] Sutton, R. S., & Barto, A. G. (2018). Reinforcement learning: An introduction. MIT press.
[33] Garcez, A. D., Gori, M., Lamb, L. C., Serafini, L., Spranger, M., & Tran, S. N. (2019). Neural-symbolic computing: An effective methodology for principled integration of machine learning and reasoning. arXiv preprint arXiv:1905.06088.
[34] McMahan, H. B., Moore, E., Ramage, D., Hampson, S., & y Arcas, B. A. (2017). Communication-efficient learning of deep networks from decentralized data. In Artificial intelligence and statistics (pp. 1273-1282).
[35] Chen, T., Kornblith, S., Norouzi, M., & Hinton, G. (2020). A simple framework for contrastive learning of visual representations. In International conference on machine learning (pp. 1597-1607).
[36] Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. Profile books.
[37] Buolamwini, J., & Gebru, T. (2018). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 77-91).
[38] Brynjolfsson, E., & McAfee, A. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. WW Norton & Company.
[39] Asaro, P. (2012). On banning autonomous weapon systems: human rights, automation, and the dehumanization of lethal decision-making. International Review of the Red Cross, 94(886), 687-709.
[40] Amodei, D., Olah, C., Steinhardt, J., Christiano, P., Schulman, J., & Mané, D. (2016). Concrete problems in AI safety. arXiv preprint arXiv:1606.06565.




