Ключевые риски тотальной оцифровки
https://vk.com/wall-137190697_316671
Наталья Касперская: «Задача полного отказа от бумажных документов – это госизмена»
На Глобальном цифровом форуме-2025, состоявшемся в Нижнем Новгороде, на панели «Архитектура цифровизации госуправления», ведущий IT-эксперт по кибербезопасности, президент Infowatch Наталья Касперская очень наглядно рассказала про ключевые риски тотальной оцифровки:
Выставлена книга: Философы о Проекте «Вселенная». Книга 16. Сайт «Философский штурм». 08.2024 – 02.2025 гг. / Составил Виталий Иванов. – СПб.: Серебряная Нить, 2025. – 186 с.
Основная идея разговора: искусственный интеллект уместнее называть искусственным восприятием, поскольку он распознаёт паттерны и структуры в данных по форме, а не по смыслу. Конечно, восприятием это тоже называть нельзя, но, по крайней мере, это слово не вводит в такое заблуждение и не порождает столько иллюзий, как слово "интеллект".
Пользователь: Ты сильный ИИ или слабый?
электронная книга-листалка "Агрессолярис" на сайте Галактический Ковчег
Русскому читателю
Конкретно Станислав Лем писал в ноябре 1965 году драматургу Славомиру Мрожеку, делясь впечатлениями от второй поездки в Советский Союз:
1. Анти-энтропийное системы. Хорошо устаканены в ноосфере 3 типа: живые, психические, социальные. Примеры систем данных типов: живые - клетки и организмы, психические - обобщения сознания, социальные - стаи, стада, трибы, сообщества и прочее - социальные организмы - социоры.
Сейчас смотрю на возможность таких систем ещё одного типа - сакрального. Название уже есть - из эзотерики - эгрегоры. Вопрос понимания границы с социорами, как в целом, так и по операциям.
Мечта о создании сильного ИИ, который был бы подобен человеку в его интеллектуальных возможностях, сейчас базируется на некоторых частных успехах искусственных нейронных сетей (ИНС). Безусловно, можно признать, что успехи эти впечатляют, что Альфа-зеро, обучаясь самостоятельно, обыграла лучших представителей людей в игре Го, что большие языковые модели, кажется, способны давать осмысленные ответы на поступающие к ним вопросы, что ещё немного и будет достигнут перелом, когда благодаря увеличивающейся мощности ИНС начнут достигать и даже превосходить людей.
1. В качестве основной проблемы для бурно развивающихся искусственных интеллектов (искинов, ИИ) сейчас видится возможность искина неконтролируемо выйти за пределы, предустановленные разработчиком.[1]
2. Для неконтролируемого выхода пока известно одно представление – эволюция – то, что порождается основным свойством жизни – постоянно вопрошать свои пределы.
Регулярные дискуссии по искинам вызывают к жизни потребность устаканить терминологию. Ключевой аспект здесь: как можно ввести родовые понятия для сознания и интеллекта, так чтобы и человеческие сознания и интеллект были бы охвачены как вид, и собачьи, и, скажем, рой пчел. Ну и прострел к уже возникшим решениям по искинам (держу в уме LLM и робо-авто) был бы на месте.
Чел-интеллект в моем понимании охватывает понятийное и предметное мышления, и не охватывает творческие – и художественное, и музыкальное.
В части интеллекта родовым видятся два вида способностей:
Мои сообщения из темы "наше будущее", реферативный материал
Сознание/мышление человека принципиально иной природы, нежели "существующие ИИ [предполагаемые к развитию] до уровня AGI (интеллекта человека)". Возможно, потратив годовые гигаватты нескольких городов на обучение, "ведущие специалисты" смогут создать одну имитацию [с персонализирующими вариациями].
Почему невозможно сознание человека у Искусственного Интеллекта
Выставлена книга: Философы о Проекте «Вселенная». Книга 12. Сайт «Философский штурм». 01–04.2023 г. / Составил Виталий Иванов. – СПб.: Серебряная Нить, 2023. – 178 с.