- 22
- 2 078 112
3Blue1Brown translated by Sciberia
Russia
Приєднався 22 січ 2019
Наши переводы MIT и Stanford: ua-cam.com/users/sciberia_science
[Calculus | глава 12] Другой способ визуализации производных
Оригинальная запись: ua-cam.com/video/CfW845LNObM/v-deo.html
Переглядів: 28 273
Відео
[Calculus | глава 11] Ряд Тейлора
Переглядів 73 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/3d6DsjIBzJ4/v-deo.html
[Calculus | глава 10] Производные высших порядков
Переглядів 21 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/BLkz5LGWihw/v-deo.html
[Calculus | глава 9] Какое отношение площадь имеет к наклону?
Переглядів 20 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/FnJqaIESC2s/v-deo.html
[Calculus | глава 8] Интегрирование и основная теорема матанализа
Переглядів 30 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/rfG8ce4nNh0/v-deo.html
[Calculus | глава 7] Пределы, правило Лопиталя и эпсилон-дельта определение
Переглядів 35 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/kfF40MiS7zA/v-deo.html
[Calculus | глава 6] Неявное дифференцирование - что здесь происходит?
Переглядів 30 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/qb40J4N1fa4/v-deo.html
[Calculus | глава 5] Что особенного в числе Эйлера?
Переглядів 44 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/m2MIpDrF7Es/v-deo.html
[Calculus | глава 4] Визуализация правила произведения и сложной функции
Переглядів 15 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/YG15m2VwSjA/v-deo.html
[Calculus | глава 3] Формулы производных через геометрию
Переглядів 18 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/S0_qX4VJhMQ/v-deo.html
[Calculus | глава 2] Парадокс производной
Переглядів 24 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/9vKqVkMQHKk/v-deo.html
[Calculus | глава 1] Суть матанализа
Переглядів 60 тис.2 роки тому
Оригинальная запись: ua-cam.com/video/WUvTyaaNkzM/v-deo.html
Теория групп и 196883-мерный монстр
Переглядів 338 тис.3 роки тому
Оригинальная запись: ua-cam.com/video/mH0oCDa74tE/v-deo.html
[DeepLearning | видео 4] Формулы обратного распространения
Переглядів 49 тис.3 роки тому
Оригинальная запись: ua-cam.com/video/tIeHLnjs5U8/v-deo.html
[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?
Переглядів 91 тис.3 роки тому
Оригинальная запись: ua-cam.com/video/Ilg3gGewQ5U/v-deo.html
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
Переглядів 172 тис.3 роки тому
[DeepLearning | видео 2] Градиентный спуск: как учатся нейронные сети
[Covid-19] Экспоненциальный рост и эпидемии
Переглядів 12 тис.4 роки тому
[Covid-19] Экспоненциальный рост и эпидемии
[Bitcoin | видео 1] Что значит владеть биткоином?
Переглядів 33 тис.4 роки тому
[Bitcoin | видео 1] Что значит владеть биткоином?
[Riemann | видео 1] Визуализация гипотезы Римана и аналитическое продолжение
Переглядів 122 тис.4 роки тому
[Riemann | видео 1] Визуализация гипотезы Римана и аналитическое продолжение
[Collisions | видео 1] Крайне неожиданный результат подсчёта
Переглядів 67 тис.5 років тому
[Collisions | видео 1] Крайне неожиданный результат подсчёта
[DeepLearning | видео 1] Что же такое нейронная сеть?
Переглядів 768 тис.5 років тому
[DeepLearning | видео 1] Что же такое нейронная сеть?
у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал
Если у кого-то не работает перемножение матрицы: 14:54 - ошибка небольшая - у матрицы b должно быть k элементов, а не n
Все бы хорошо, но числа не кОмплексные кОмплексный обед, а числа комплЕксные
Спасибо Гранту Сандерсону , за человеческое объяснение этой не простой для понимания темы.
принцип работы нейросетИИИИ есть торговые сЕти, социальные сЕти, нейро сЕти, рыболовные сЕти.. разместить товар в одной торговой (нейро, водосточной) сетИ. где? - в сетИ. одной сетИ. одна рыба положена в сЕть. рыба лежит в одной сетИ. стопкой лежат сЕти. (множественное число) выбросить информацию в социальные сЕти, разместить информацию в одной социальной сетИ. разместить в сетИ интернет
Когда вся актуальная политата на сегодня просмотрена, на оливьешку надо под что то есть. Пошёл ставить чайник
Это просто лучшее, что можно найти на данную тему. Спасибо!
1:57 алгоритм 2:38 MNIST Database 3:10 4:00 вычисление функции ошибки (математическим языком - добавить квадрат разности между каждым "плохим" значением) 4:56 функция ошибки 5:19 6:50 7:04 7:34 8:02 многомерный анализ 8:24 9:18 10:06 10:42 ! 11:27 11:45 вычисл. градиента функции двух переменных 12:10 12:28
легенда бро просто шедевр просто гений просто целую твои пятки
у меня после 8 минут голова взорвалась
видел видео и понятней по нейросетям. автор сильно погряз в математической закостенелости и не может осознать, что если называть каждую переменную 3 символами, то не удивительно, что ничего не будет понятно. легче было бы дать полные имена каждой переменной, как это принято в программировании
всё чётко сжато, настоящий талант
ваш канал это библия математики
Смотрю получаестья пи, такой думаю ха-ха похоже на "пи" смотрю дальше 31414 + 1, думаю "пи", и тут автор говорит про "пи" , и тут тогда взрыв башки от эмоций. это 3,14здец =)
Привет всем, кому матан нужен для аналитики или датасаенса, особенно кто по рекомендации канала Data Science Guy.
Зачем так долго объяснять то что нужно взять производную от сложной функции??
Это кокаято нейросеть или игра где можно также😢
Благодарю вас!
А цифры числа е можно получить макаром типа такого?
Калейдоскоп дуальностей Люцифера манипуляции с числами вот и всё, что представляет из себя сеть.
я честно говоря не понял, почему производная d(sin(h)) равна cos(h) * dh
Видишь ли, это тоже самое как если бы ты брал производную от sin(x). Производная от sin(x) равна cos(x). Тоже самое и тут, только вместо x у тебя другая буква - h. В общем ты умножаешь производную внешней функции по внутренней на производную внутренней по переменной.
А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?
НИXPEHA НЕ ПОНЯТНО. 😢
Я посмотрел наверное с пару десятков видео про Nl и прочитал несколько десятков статей, но я до сих пор ниxpeна на понял как это работает.... 😢 Я пока сделал только один вывод - дадасапиенсы либо банально не умеют объяснять предмет для широких масс, либо сами не до конца понимают. Увы.
@@xxphall Логика в том, что если ты не умеешь объяснять (часто равно не знаешь предмет), то не нужно объяснять, ибо ты только запутываешь людей и тратишь их время. Сквозь тысячи видео/постов го*на очень сложно найти нормальные материалы. Теперь понятно?
Я ничего не понял. То есть чтобы узнать значения потерь нужно разметить вручную (!!) сотни правильных примеров?
Чёрт, как же интересно. Я просто в афиге. Очень круто!
Я, как зритель искушённый, всё, что хотел донести мистер Грант, понял. На самом деле, чтобы по-настоящему понять данный ролик, нужно не так много подготовки, как может показаться. Упомянутая тут теорема о классификации простых конечных групп, пожалуй, самый глубокий результат в математике. Осознав это, прочувствовав, можно испытать самые невероятные чувства... (покруче тех, которые испытывали древние люди, впервые осознав тот факт, что Земля имеет шарообразную форму)
Отличный интересный рассказ для не специалистов в этой области, т.е. для меня! Спасибо! С удовольствием послушал бы продолжение, больше погружающее в группы!
Мне странно что кто-то может не знать этого, это же самые азы.
преподы бы так объясняли, то зачастую базис свой сами объяснить не могут, зато как высоко при этом о себе думают, что аж зубы сводит
Нужно быть немного аккуратнее с обозначениями dF и dx всегда друг на друга дают нам производную, требование предела для dx не нужно. Ведь dx это дифференциал, а не приращение, а вот для приращения F уже нужно такое требование. Понятно, что тут не пытаются в строгость, но всё-таки, на второй минуте можно было просто использовать обозначения для приращений, а не дифференциалы писать. А то потом студент это запомнит и на экзамене ему тройку впаяют, и будут правы.
👍
Гораздо проще это объясняется с точки зрения геометрии. Сначала мы выбираем характеристики, получаем н-мерное пространство характеристик. В этом пространстве у нас есть точки. Затем мы строим н - 1 мерную плоскость, чтобы разделить характеристики на 2 группы. Она определяется с помощью матрицы и и оффсета. По сути задача построения модели для обучения есть построение различных плоскостей, которые будут эффективно делить наши характеристики на каждом этапе до получения результата.
А разве 2хdx не дифференциал функции, а производная?
Спасибо, просто великолепная подача материала!!
ты лучший
Живая слышу многочлена два разные видео😂😂😂
Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать
Мдаа... видео хоть и качественное, сделано грамотно, визуализация крутая, но... НИЧЕГО НЕ ПОНЯЛ, было просто интересно. 🤣
немного не понял вообще :) есть ли кто, кто может как-то иначе объяснить неявное дифференцирование?
6969696969696969696969
Откуда взялся зеленый Пи?
Здравствуйте, можете рассказать про среднеквадратичную производную?
Каеф, вот только не "рывок", а "тряска", вроде как
Почему-то кто-то решает, что это число некрасиво, но кто сказал, что десятичная система самая красивая из выбранных? Уже представляю себе систему счисление с количеством знаков равным монстру Было бы ещё забавно, если бы число оказалось простым
Ничего не понял, но очень интересно
Очень хороший перевод, спасибо и респект)
Миллионный приз чепуха по сравнению со взломом биткоина. 😂
задача с корнем графически сформулирована неверно
При моделировании физ.процессов часто возникает задача алгоритмизировать полученные данные.Представленный материал огромное подспорье при создании математических моделей. Большая благодарность авторам!!😮