[Ненормальное программирование, Python, Data Mining, Искусственный интеллект] интуиция Искусственного Интеллекта — миф или реальность?
Автор
Сообщение
news_bot ®
Стаж: 6 лет 9 месяцев
Сообщений: 27286
Одно из самых известных, наиболее интересное и совсем не изученное свойство человеческого разума с давних пор привлекавшее исследователей это интуиция.
Со времен древности философы и математики пытались хоть как как то понять и определить смысл этого могучего нашего свойства.
Еще Платон разделял и выделял нелогическое познание,
Декарт, например, утверждал: «Под интуицией я разумею не веру в шаткое свидетельство чувств и не обманчивое суждение беспорядочного воображения, но понятие ясного и внимательного ума, настолько простое и отчётливое, что оно не оставляет никакого сомнения в том, что мы мыслим, или, что одно и то же, прочное понятие ясного и внимательного ума, порождаемое лишь естественным светом разума и благодаря своей простоте более достоверное, чем сама дедукция…».
Гегель указывал на непосредственное знание,
и даже Фейербах упомянул о чувственности познания!
В данной статье автор попытается провести такое же исследование интуиции, но не человеческой, нам всем знакомой и известной, а определить и показать интуицию у искуственного интеллекта, у нейронной сети.
Итак начнем!
для изучения и препарирования возьмем уже привычный, вдоль и поперек изученный, насквозь понятный пример — классика ML, handwritten images MNIST.
И возьмем в дело также всем известный, многократно проверенный и изученный пример сети с сайта keras
https://keras.io/examples/vision/mnist_convnet/
или с Github
https://github.com/keras-team/keras-io/blob/master/examples/vision/mnist_convnet.py
"""
Title: Simple MNIST convnet
Author: [fchollet](https://twitter.com/fchollet)
Date created: 2015/06/19
Last modified: 2020/04/21
Description: A simple convnet that achieves ~99% test accuracy on MNIST.
"""
import numpy as np
from tensorflow import keras
from tensorflow.keras import layers
# Model / data parameters
num_classes = 10
input_shape = (28, 28, 1)
# the data, split between train and test sets
(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()
# Scale images to the [0, 1] range
x_train = x_train.astype("float32") / 255
x_test = x_test.astype("float32") / 255
# Make sure images have shape (28, 28, 1)
x_train = np.expand_dims(x_train, -1)
x_test = np.expand_dims(x_test, -1)
print("x_train shape:", x_train.shape)
print(x_train.shape[0], "train samples")
print(x_test.shape[0], "test samples")
# convert class vectors to binary class matrices
y_train = keras.utils.to_categorical(y_train, num_classes)
y_test = keras.utils.to_categorical(y_test, num_classes)
model = keras.Sequential(
[
keras.Input(shape=input_shape),
layers.Conv2D(32, kernel_size=(3, 3), activation="relu"),
layers.MaxPooling2D(pool_size=(2, 2)),
layers.Conv2D(64, kernel_size=(3, 3), activation="relu"),
layers.MaxPooling2D(pool_size=(2, 2)),
layers.Flatten(),
layers.Dropout(0.5),
layers.Dense(num_classes, activation="softmax"),
]
)
model.summary()
batch_size = 512
epochs = 15
model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"])
model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=2)
изменим только всего лишь один параметр — batch_size = 512. Благо карта позволяет.
Проверим результат
score = model.evaluate(x_test, y_test, verbose=0)
print("Test loss:", score[0])
print("Test accuracy:", score[1])
Test loss: 0.028873076662421227
Test accuracy: 0.9898999929428101
так себе результат, бывает и лучше.
И вот теперь, когда на руках не очень хорошо обученая сеть и слабенький результат, попробуем применить интуицию или то, что автор называет интуицией.
Выберем, конечно же интуитивно, некоторое множество из тестовых картинок и проверим, как на этих картинках работает наша сеть
pred = model.predict(x_test)
idx = np.argwhere(
np.array(
[
pred[x, np.argsort(pred, axis=1)[x, -1]]
- pred[x, np.argsort(pred, axis=1)[x, -2]]
for x in range(pred.shape[0])
]
)
> 0.999
).reshape(-1)
print(idx.shape)
score = model.evaluate(x_test[idx], y_test[idx], verbose=0)
print("Test loss:", score[0])
print("Test accuracy:", score[1])
Оказывается мы выбрали только те картинки из тестового множества где сеть дает 100% результат!
Test loss: 0.00011477641965029761
Test accuracy: 1.0
Обратите внимание, мы учили сеть на TRAIN, а точки интуитивно выбрали из TEST.
Никакого подвоха и сеть не могла подсмотреть.
Но на выбранном множестве картинок результат с accuracy: 1.0
Не буду сейчас обсуждать практическую или теоретическую часть описанного выше явления или, если угодно, свойства сети,
Но факт есть и ничем и никак не обоснованное решение позволяет выбрать точно распознаваемые картинки и сосредоточиться на распознавании оставшихся.
Их кстати меньше половины.
Можно конечно внести изменения и если снизить требования к интуиции ну хоть до 0.99 то мы пропустим только одну или две картинки, но выберем около 9500.
Оставшиеся 500 можно изучить глазамии и сделать тонкую настройку сети и подобающую аугментацию.
Уверен, что правильное применение интуиции AI в таком тонком и сложном вопросе как машинное обучение и искусственный интеллект, несомненно добавит точности вашим сетям.
===========
Источник:
habr.com
===========
Похожие новости:
- [Ненормальное программирование, JavaScript, TypeScript] Фрактальная шизофрения. What`s up?
- [Python, Математика, Машинное обучение] Двумерные тестовые функции для оптимизации (перевод)
- [Машинное обучение, Искусственный интеллект, Интернет вещей] AI только собирается стать умнее (перевод)
- [Python, Машинное обучение, Лайфхаки для гиков] Как проверить подлинность банкнот с помощью нейросети (перевод)
- [Python, Алгоритмы, Машинное обучение, Искусственный интеллект] DialoGPT на русском
- [Python, Программирование, Машинное обучение] Telegram bot + ML: универсальный алгоритм совмещения
- [Python, Машинное обучение, Учебный процесс в IT] Как вручную оптимизировать гиперпараметры модели машинного обучения (перевод)
- [Информационная безопасность, Машинное обучение] Атаки на компьютерное зрение
- [Научно-популярное, Искусственный интеллект] Как помочь исследователям изучать нашу планету: гайд от Selectel для читателей Хабра
- [Машинное обучение, Искусственный интеллект] Google научила нейросеть генерировать рецепты
Теги для поиска: #_nenormalnoe_programmirovanie (Ненормальное программирование), #_python, #_data_mining, #_iskusstvennyj_intellekt (Искусственный интеллект), #_iskusstvennyj_intellekt (искусственный интеллект), #_mashinnoe_obuchenie (машинное обучение), #_python, #_keras, #_mnist, #_intuitsija (интуиция), #_nenormalnoe_programmirovanie (
Ненормальное программирование
), #_python, #_data_mining, #_iskusstvennyj_intellekt (
Искусственный интеллект
)
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 18:58
Часовой пояс: UTC + 5
Автор | Сообщение |
---|---|
news_bot ®
Стаж: 6 лет 9 месяцев |
|
Одно из самых известных, наиболее интересное и совсем не изученное свойство человеческого разума с давних пор привлекавшее исследователей это интуиция. Со времен древности философы и математики пытались хоть как как то понять и определить смысл этого могучего нашего свойства. Еще Платон разделял и выделял нелогическое познание, Декарт, например, утверждал: «Под интуицией я разумею не веру в шаткое свидетельство чувств и не обманчивое суждение беспорядочного воображения, но понятие ясного и внимательного ума, настолько простое и отчётливое, что оно не оставляет никакого сомнения в том, что мы мыслим, или, что одно и то же, прочное понятие ясного и внимательного ума, порождаемое лишь естественным светом разума и благодаря своей простоте более достоверное, чем сама дедукция…». Гегель указывал на непосредственное знание, и даже Фейербах упомянул о чувственности познания! В данной статье автор попытается провести такое же исследование интуиции, но не человеческой, нам всем знакомой и известной, а определить и показать интуицию у искуственного интеллекта, у нейронной сети. Итак начнем! для изучения и препарирования возьмем уже привычный, вдоль и поперек изученный, насквозь понятный пример — классика ML, handwritten images MNIST. И возьмем в дело также всем известный, многократно проверенный и изученный пример сети с сайта keras https://keras.io/examples/vision/mnist_convnet/ или с Github https://github.com/keras-team/keras-io/blob/master/examples/vision/mnist_convnet.py """
Title: Simple MNIST convnet Author: [fchollet](https://twitter.com/fchollet) Date created: 2015/06/19 Last modified: 2020/04/21 Description: A simple convnet that achieves ~99% test accuracy on MNIST. """ import numpy as np from tensorflow import keras from tensorflow.keras import layers # Model / data parameters num_classes = 10 input_shape = (28, 28, 1) # the data, split between train and test sets (x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data() # Scale images to the [0, 1] range x_train = x_train.astype("float32") / 255 x_test = x_test.astype("float32") / 255 # Make sure images have shape (28, 28, 1) x_train = np.expand_dims(x_train, -1) x_test = np.expand_dims(x_test, -1) print("x_train shape:", x_train.shape) print(x_train.shape[0], "train samples") print(x_test.shape[0], "test samples") # convert class vectors to binary class matrices y_train = keras.utils.to_categorical(y_train, num_classes) y_test = keras.utils.to_categorical(y_test, num_classes) model = keras.Sequential( [ keras.Input(shape=input_shape), layers.Conv2D(32, kernel_size=(3, 3), activation="relu"), layers.MaxPooling2D(pool_size=(2, 2)), layers.Conv2D(64, kernel_size=(3, 3), activation="relu"), layers.MaxPooling2D(pool_size=(2, 2)), layers.Flatten(), layers.Dropout(0.5), layers.Dense(num_classes, activation="softmax"), ] ) model.summary() batch_size = 512 epochs = 15 model.compile(loss="categorical_crossentropy", optimizer="adam", metrics=["accuracy"]) model.fit(x_train, y_train, batch_size=batch_size, epochs=epochs, verbose=2) изменим только всего лишь один параметр — batch_size = 512. Благо карта позволяет. Проверим результат score = model.evaluate(x_test, y_test, verbose=0)
print("Test loss:", score[0]) print("Test accuracy:", score[1]) Test loss: 0.028873076662421227 Test accuracy: 0.9898999929428101 так себе результат, бывает и лучше. И вот теперь, когда на руках не очень хорошо обученая сеть и слабенький результат, попробуем применить интуицию или то, что автор называет интуицией. Выберем, конечно же интуитивно, некоторое множество из тестовых картинок и проверим, как на этих картинках работает наша сеть pred = model.predict(x_test)
idx = np.argwhere( np.array( [ pred[x, np.argsort(pred, axis=1)[x, -1]] - pred[x, np.argsort(pred, axis=1)[x, -2]] for x in range(pred.shape[0]) ] ) > 0.999 ).reshape(-1) print(idx.shape) score = model.evaluate(x_test[idx], y_test[idx], verbose=0) print("Test loss:", score[0]) print("Test accuracy:", score[1]) Оказывается мы выбрали только те картинки из тестового множества где сеть дает 100% результат! Test loss: 0.00011477641965029761
Test accuracy: 1.0 Обратите внимание, мы учили сеть на TRAIN, а точки интуитивно выбрали из TEST. Никакого подвоха и сеть не могла подсмотреть. Но на выбранном множестве картинок результат с accuracy: 1.0 Не буду сейчас обсуждать практическую или теоретическую часть описанного выше явления или, если угодно, свойства сети, Но факт есть и ничем и никак не обоснованное решение позволяет выбрать точно распознаваемые картинки и сосредоточиться на распознавании оставшихся. Их кстати меньше половины. Можно конечно внести изменения и если снизить требования к интуиции ну хоть до 0.99 то мы пропустим только одну или две картинки, но выберем около 9500. Оставшиеся 500 можно изучить глазамии и сделать тонкую настройку сети и подобающую аугментацию. Уверен, что правильное применение интуиции AI в таком тонком и сложном вопросе как машинное обучение и искусственный интеллект, несомненно добавит точности вашим сетям. =========== Источник: habr.com =========== Похожие новости:
Ненормальное программирование ), #_python, #_data_mining, #_iskusstvennyj_intellekt ( Искусственный интеллект ) |
|
Вы не можете начинать темы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Вы не можете отвечать на сообщения
Вы не можете редактировать свои сообщения
Вы не можете удалять свои сообщения
Вы не можете голосовать в опросах
Вы не можете прикреплять файлы к сообщениям
Вы не можете скачивать файлы
Текущее время: 22-Ноя 18:58
Часовой пояс: UTC + 5