Нейронные сети - Дипломные - компьютерный психоанализ - Библиотека

Исполнители
Безопасность заказов и сделок
Время на проверку работ
Войти
olga_1309 - автор студенческих работ

VIP! olga_1309  ЧАТ

Рейтинг : 21450
c264 - автор студенческих работ

VIP! c264  ЧАТ

Рейтинг : 5097

VIP! stepanivan  ЧАТ

Рейтинг : 874
lesi555 - автор студенческих работ

VIP! lesi555  ЧАТ

Рейтинг : 17976
Помощь по экономическим и гуманитарным дисциплинам
Студентам в помощь
VIP Исполнители
ВЫПОЛНИМ
Лента заказов

  • Заказать Работу
  • Готовые работы
    Заметки
    Библиотека
    Файлообменник
    Как сделать заказ
    Исполнители
    Магазин
    Новости
    Видео, ТВ и Радио
    Дисциплины
    Статьи, Опросы
    Форум
    Контакты
    Исполнители
  • Математические
  • Физика-Химия
  • Технические
  • Программирование
  • Гуманитарные
  • Экономические
  • Юридические
  • Иностранные языки
  • Другое, Разное
  • Статьи, Копирайтинг
  • Создание сайтов
  • Раскрутка сайтов
  • Дизайн, Графика
  • Аудио/Видео
  • Сообщения форума
    Поздравим всех!
    С наступающим Новым Годом !
    С 8 МАРТА МИЛЫХ ЖЕНЩИН!!!
    Как вы относитесь к help-s.ru ?
    Посмотрим, посмеёмся! ;)
    Помочь с самоваром.
    Electronics Workbench 5.12
    WebMoney или YAndex
    Объявления и Уведомления
    Крик души
    День рождения
  • Cегодня (2): TheElena , scientistlux
  • Завтра: elfiy  Luiza 
  •  

    Нейронные сети

    Библиотека - файл № 10251    

    1. Лорьер Ж.-Л. Системы искусственного интеллекта. М.: Мир, 1991. - 568с.
    2. Искусственный интеллект. В 3-х кн. Кн. 2. Модели и методы: Справочник / Под ред. Д.А.Поспелова. М.: Радио и связь, 1990. - 304с.
    3.    Хафман И. Активная память. М.: Прогресс. 1986. - 309с.
    4.    Бонгард М.М. Проблема узнавания. М.: Наука, 1967. - 320с.
    5.    Загоруйко Н.Г. Методы обнаружения закономерностей. М.: Наука, 1981. - 115с.
    6.    Гаек П., Гавранек Т. Автоматическое образование гипотез. М.: Наука, 1984. - 278с.
    7.    Гуревич Ю.В., Журавлев Ю.И. Минимизация булевых функций и и эффективные алгоритмы распознавания // Кибернетика. - 1974, №3. - с.16-20.
    8.    Искусственный интеллект. В 3-х кн. Кн. 1. Системы общения и экспертные системы: Справочник / Под ред. Э.В.Попова. М.: Радио и связь, 1990. - 464с.
    9.    Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика: Основы моделирования и первичная обработка данных. М.: Финансы и статистика, 1983. - 471с.
    10.    Загоруйко Н.Г. Гипотезы компактности и -компактности в алгоритмах анализа данных // Сибирский журнал индустриальной математики. Январь-июнь, 1998. Т.1, №1. - с.114-126.
    11.    Браверман Э.М., Мучник И.Б. Структурные методы обработки эмпирических данных. М.: Наука, 1983. - 464с.
    12.    Дуда Р., Харт П. Распознавание образов и анализ сцен. М.: Мир, 1976. - 512с.
    13.    Цыпкин Я.З. Информационная теория идентификации. М.: Наука, 1995. - 336с.
    14.    Айзерман М.А., Браверман Э.М., Розоноер Л.И. Метод потенциальных функций в теории обучения машин. - М.: Наука, 1970. - 240с.
    15.    Россиев Д.А. Самообучающиеся нейросетевые экспертные системы в медицине: теория, методология, инструментарий, внедрение. Автореф. дисс. … доктора биол. наук. Красноярск, 1996.
    16.    Горбань А.Н. Обучение нейронных сетей. М.: изд. СССР-США СП "ParaGraph", 1990. - 160с. (English Translation: AMSE Transaction, Scientific Siberian, A, 1993, Vol. 6. Neurocomputing, рp.1-134).
    17.    Горбань А.Н., Россиев Д.А. Нейронные сети на персональном компьютере. Новосибирск: Наука, 1996. - 276с.
    18.    Нейроинформатика / А.Н. Горбань, В.Л. Дунин-Барковский, А.Н. Кирдин и др. Новосибирск: Наука, 1998. - 296с.
    19.    Ежов А.А., Шумский С.А. Нейрокомпьютинг и его применение в финансах и бизнесе. М.: МИФИ, 1998.
    20.    Миркес Е.М. Нейрокомпьютер: проект стандарта. Новосибирск, Наука, 1998.
    21.    Kwon O.J., Bang S.Y. A Design Method of Fault Tolerant Neural Networks / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 396-400.
    22.    Горбань А.Н., Царегородцев В.Г. Методология производства явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Труды VI Международной конференции "Математика. Компьютер. Образование" / - М.: Прогресс-традиция, 1999. - Ч.I. - С.110-116.
    23.    Царегородцев В.Г. Извлечение явных знаний из таблиц данных при помощи обучаемых и упрощаемых искусственных нейронных сетей // Материалы XII Международной конференции по нейрокибернетике. - Ростов-на-Дону. Изд-во СКНЦ ВШ. 1999.- 323с. - С.245-249.
    24.    Reed R. Pruning Algorithms - a Survey / IEEE Trans. on Neural Networks, 1993, Vol.4, №5. - pp.740-747.
    25.    Depenau J., Moller M. Aspects of Generalization and Pruning / Proc. WCNN'94, 1994, Vol.3. - pp.504-509.
    26.    Гилев С.Е., Коченов Д.А., Миркес Е.М., Россиев Д.А. Контрастирование, оценка значимости параметров, оптимизация их значений и их интерпретация в нейронных сетях // Доклады III Всероссийского семинара “Нейроинформатика и ее приложения”. – Красноярск, 1995.- С.66-78.
    27.    Weigend A.S., Rumelhart D.E., Huberman B.A. Generalization by Weights-elimination with Application to Forecasting / Advances in Neural Information Processing Systems. Morgan Kaufmann, 1991. Vol.3. - pp. 875-882.
    28.    Yasui S. Convergence Suppression and Divergence Facilitation for Pruning Multi-Output Backpropagation Networks / Proc. 3rd Int. Conf. on Fuzzy Logic, Neural Nets and Soft Computing, Iizuka, Japan, 1994. - pp.137-139.
    29.    Yasui S. A New Method to Remove Redundant Connections in Backpropagation Neural Networks: Inproduction of 'Parametric Lateral Inhibition Fields' / Proc. IEEE INNS Int. Joint Conf. on Neural Networks, Beijing, Vol.2. - pp.360-367.
    30.    Yasui S., Malinowski A., Zurada J.M. Convergence Suppression and Divergence Facilitation: New Approach to Prune Hidden Layer and Weights in Feedforward Neural Networks / Proc. IEEE Int. Symposium on Circuits and Systems 1995, Seattle, WA, USA. Vol.1. - pp.121-124.
    31.    Malinowski A., Miller D.A., Zurada J.M. Reconciling Training and Weight Suppression: New Guidelines for Pruning-efficient Training / Proc. WCNN 1995, Washington, DC, USA. Vol.1. - pp.724-728.
    32.    Krogh A., Hertz J. A Simple Weight Decay can Improve Generalization / Advances in Neural Infromation Processing Systems 4, 1992. - pp. 950-957.
    33.    Kamimura R., Nakanishi S. Weight-decay as a Process of Redundancy Reduction / Proc. WCNN, 1994, Vol.3. - pp.486-489.
    34.    Karnin E.D. A Simple Procedure for Pruning Back-propagation Trained Network / IEEE Trans. on Neural Networks, June 1990. Vol. 1, No.2. - pp.239-242.
    35.    Le Cun Y., Denker J.S., Solla S.A. Optimal Brain Damage / Advances in Neural Information Processing Systems 2. - Morgan Kaufmann, 1990. - pp.598-605.
    36.    Hassibi B., Stork D.G., Wolff G. Optimal Brain Surgeon: Extensions and Performance Comparisions / Advances in Neural Information Processing Systems 6, 1994. – pp.263-270.
    37.    Гилев С.Е. Алгоритм сокращения нейронных сетей, основанный на разностной оценке вторых производных целевой функции // Нейроинформатика и ее приложения : Тезисы докладов V Всеросс. семинара, 1997. Красноярск. КГТУ. 1997. - 190с. - C.45-46.
    38.    Tanpraset C., Tanpraset T., Lursinsap C. Neuron and Dendrite Pruning by Synaptic Weight Shifting in Polynomial Time / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.822-827.
    39.    Kamimura R. Principal Hidden Unit Analysis: Generation of Simple Networks by Minimum Entropy Method / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.317-320.
    40.    Mozer M.C., Smolensky P. Using Relevance to Reduce Network Size Automatically / Connection Science. 1989. Vol.1. - pp.3-16.
    41.    Mozer M.C., Smolensky P. Skeletonization: A Technique for Trimming the Fat from a Network via Relevance Assessment / Advances in Neural Network Information Processing Systems 1, Morgan Kaufmann, 1989. - pp.107-115.
    42.    Watanabe E., Shimizu H. Algorithm for Pruning Hidden Units in Multi Layered Neural Network for Binary Pattern Classification Problem / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.327-330.
    43.    Yoshimura A., Nagano T. A New Measure for the Estimation of the Effectiveness of Hidden Units / Proc. Annual Conf. JNNS, 1992. - pp.82-83.
    44.    Murase K., Matsunaga Y., Nakade Y. A Back-propagation Algorithm which Automatically Determines the Number of Association Units / Proc. IJCNN, Singapore, 1991. - Vol.1. - pp.783-788.
    45.    Matsunaga Y., Nakade Y., Yamakawa O., Murase K, A Back-propagation Algorithm with Automatic Reduction of Association Units in Multi-layered Neural Network / Trans. on IEICE, 1991. Vol. J74-DII, №8. - pp.1118-1121.
    46.    Hagiwara M. Removal of Hidden Units and Weights for Back Propagation Networks / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.351-354.
    47.    Majima N., Watanabe A., Yoshimura A., Nagano T. A New Criterion "Effectiveness Factor" for Pruning Hidden Units / Proc. ICNN 1994, Seoul, Korea. - Vol.1. - pp. 382-385.
    48.    Царегородцев В.Г. Производство полуэмпирических знаний из таблиц данных с помощью обучаемых искусственных нейронных сетей // Методы нейроинформатики. – Красноярск: Изд-во КГТУ, 1998. - 205c. - C.176-198.
    49.    Sietsma J., Dow R.J.F. Neural Net Pruning - Why and How / Proc. IEEE IJCNN 1988, San Diego, CA. Vol.1. - pp. 325-333.
    50.    Sietsma J., Dow R.J.F. Creating Artificial Neural Network that Generalize / Neural Networks, 1991. Vol.4, No.1. - pp.67-79.
    51.    Yamamoto S., Oshino T., Mori T., Hashizume A., Motoike J. Gradual Reduction of Hidden Units in the Back Propagation Algorithm, and its Application to Blood Cell Classification / Proc. IJCNN 1993, Nagoya, Japan. - Vol.3. - pp.2085-2088.
    52.    Sarle W.S. How to measure importance of inputs? SAS Institute Inc., Cary, NC, USA, 1999. ftp://ftp.sas.com/pub/neural/importance.html
    53.    Goh T.-H. Semantic Extraction Using Neural Network Modelling and Sensitivity Analisys / Proc. IJCNN 1993, Nagoya, Japan. - Vol.1. - pp.1031-1034.
    54.    Howlan S.J., Hinton G.E. Simplifying Neural Network by Soft Weight Sharing / Neural Computations, 1992. Vol.4. №4. - pp.473-493.
    55.    Keegstra H., Jansen W.J., Nijhuis J.A.G., Spaanenburg L., Stevens H., Udding J.T. Exploiting Network Redundancy for Low-Cost Neural Network Realizations / Proc. IEEE ICNN 1996, Washington, DC, USA. Vol.2. - pp.951-955.
    56.    Chen A.M., Lu H.-M., Hecht-Nielsen R. On the Geometry of Feedforward Neural Network Error Surfaces // Neural Computations, 1993. - 5. pp. 910-927.
    57.    Гордиенко П. Стратегии контрастирования // Нейроинформатика и ее приложения : Тезисы докладов V Всероссийского семинара, 1997 / Под ред. А.Н.Горбаня. Красноярск. КГТУ. 1997. - 190с. - C.69.
    58.    Gorban A.N., Mirkes Ye.M., Tsaregorodtsev V.G. Generation of explicit knowledge from empirical data through pruning of trainable neural networks / Int. Joint Conf. on Neural Networks, Washington, DC, USA, 1999.
    59.    Ishibuchi H., Nii M. Generating Fuzzy If-Then Rules from Trained Neural Networks: Linguistic Analysis of Neural Networks / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1133-1138.
    60.    Lozowski A., Cholewo T.J., Zurada J.M. Crisp Rule Extraction from Perceptron Network Classifiers / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.94-99.
    61.    Lu H., Setiono R., Liu H. Effective Data Mining Using Neural Networks / IEEE Trans. on Knowledge and Data Engineering, 1996, Vol.8, №6. – pp.957-961.
    62.    Duch W., Adamczak R., Grabczewski K. Optimization of Logical Rules Derived by Neural Procedures / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    63.    Duch W., Adamczak R., Grabczewski K. Neural Optimization of Linguistic Variables and Membership Functions / Proc. 1999 ICONIP, Perth, Australia.
    64.    Ishikawa M. Rule Extraction by Successive Regularization / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1139-1143.
    65.    Sun R., Peterson T. Learning in Reactive Sequential Decision Tasks: the CLARION Model / Proc. 1996 IEEE ICNN, Washington, DC, USA. Plenary, Panel and Special Sessions Volume. - pp.70-75.
    66.    Gallant S.I. Connectionist Expert Systems / Communications of the ACM, 1988, №31. – pp.152-169.
    67.    Saito K., Nakano R. Medical Diagnostic Expert System Based on PDP Model / Proc. IEEE ICNN, 1988. – pp.255-262.
    68.    Fu L.M. Rule Learning by Searching on Adapted Nets / Proc. AAAI, 1991. - pp.590-595.
    69.    Towell G., Shavlik J.W. Interpretation of Artificial Neural Networks: Mapping Knowledge-based Neural Networks into Rules / Advances in Neural Information Processing Systems 4 (Moody J.E., Hanson S.J., Lippmann R.P. eds.). Morgan Kaufmann, 1992. - pp. 977-984.
    70.    Fu L.M. Rule Generation From Neural Networks / IEEE Trans. on Systems, Man. and Cybernetics, 1994. Vol.24, №8. - pp.1114-1124.
    71.    Yi L., Hongbao S. The N-R Method of Acquiring Multi-step Reasoning Production Rules Based on NN / Proc. 1996 IEEE ICNN, Washington, DC, USA. Vol.2. - pp.1150-1155.
    72.    Towell G., Shavlik J.W., Noodewier M.O. Refinement of Approximately Correct Domain Theories by Knowledge-based Neural Networks / Proc. AAAI'90, Boston, MA, USA, 1990. - pp.861-866.
    73.    Towell G., Shavlik J.W. Extracting Refined Rules from Knowledge-based Neural Networks / Machine Learning, 1993. Vol.13. - pp. 71-101.
    74.    Towell G., Shavlik J.W. Knowledge-based Artificial Neural Networks / Artificial Intelligence, 1994. Vol.70, №3. - pp.119-165.
    75.    Opitz D., Shavlik J. Heuristically Expanding Knowledge-based Neural Networks / Proc. 13 Int. Joint Conf. on Artificial Intelligence, Chambery, France. Morgan Kaufmann, 1993. - pp.1360-1365.
    76.    Opitz D., Shavlik J. Dynamically Adding Symbolically Meaningful Nodes to Knowledge-based Neural Networks / Knowledge-based Systems, 1995. - pp.301-311.
    77.    Craven M., Shavlik J. Learning Symbolic Rules Using Artificial Neural Networks / Proc. 10 Int. Conf. on Machine Learning, Amherst, MA, USA. Morgan Kaufmann, 1993. - pp.73-80.
    78.    Craven M., Shavlik J. Using Sampling and Queries to Extract Rules from Trained Neural Networks / Proc. 11 Int. Conf. on Machine Learning, New Brunswick, NJ, USA, 1994. - pp.37-45.
    79.    Medler D.A., McCaughan D.B., Dawson M.R.W., Willson L. When Local int't Enough: Extracting Distributed Rules from Networks / Proc. 1999 IJCNN, Washington, DC, USA, 1999.
    80.    Craven M.W., Shavlik J.W. Extracting Comprehensible Concept Representations from Trained Neural Networks / IJCAI Workshop on Comprehensibility in Machine Learning, Montreal, Quebec, Canada, 1995.
    81.    Andrews R., Diederich J., Tickle A.B. A Survey and Critique of Techniques for Extracting Rules from Trained Artificial Neural Networks / Knowledge Based Systems, 1995, №8. - pp.373-389.
    82.    Craven M.W., Shavlik J.W. Using Neural Networks for Data Mining / Future Generation Computer Systems, 1997.
    83.    Craven M.W., Shavlik J.W. Rule Extraction: Where Do We Go From Here? Department of Computer Sciences, University of Wisconsin, Machine Learning Research Group Working Paper 99-1. 1999.
    84.    Michalski R.S. A Theory and Methodology of Inductive Learning / Artificial Intelligence, 1983, Vol.20. – pp.111-161.
    85.    McMillan C., Mozer M.C., Smolensky P. The Connectionist Scientist Game: Rule Extraction and Refinement in a Neural Network / Proc. XIII Annual Conf. of the Cognitive Science Society, Hillsdale, NJ, USA, 1991. Erlbaum Press, 1991.
    86.    Language, meaning and culture: the selected papers of C. E. Osgood / ed. by Charles. E. Osgood and Oliver C. S. Tzeng. New York (etc.) : Praeger, 1990 XIII, 402 S.
    87.    Горбань П.А. Нейросетевая реализация метода семантического дифференциала  и анализ выборов американских президентов, основанный на технологии производства явных знаний из данных // Материалы XXXVII Международной научной студенческой конференции "Cтудент и научно-технический прогресс": Информационные технологии. Новосибирск, НГУ, 1999

    Вид литературы:  Дипломные
    Учебный предмет:  компьютерный психоанализ
    Раздел:
    Информатика, Программирование:
    Программирование.
    Автор: vasiliy_86

    Добавлена 09.10.2009 в 11:39:08



    Голосование


    Случайное стихотворение

    Вчерашний школьник на линейке первокурсников
    Посвящение в первокурсники - волнительное и значимое событие в жизни каждого "начинающего" студента.

    Слегка волнительно, тревожно,
    Хотя привычна атмосфера.
    Совсем давным-давно, быть может,
    Так посвящали в пионеры.

    Не страшно. За плечами школа.
    Как будто те же смех и лица,
    Стремленье покорить все горы,
    Желанье жить, любить, учиться.

    Теперь рука всегда на пульсе,
    Нос по ветру, хвост пистолетом.
    Я, наконец-то, первокурсник!
    Я, наконец-то, стал студентом!
    Оставить комментарий

     
     
     


    Смотрите также по данному разделу
     
    Исполнителям
    DenisChigrev В связи с тем что одногруппник отказался от его работы , завысил ценник , сроки не соблюдает от слова совсем. Работа по итогу так и не выполнена.    
    bushka Спасибо большое за сложную работу, выполненную в ехель  
    SiberianWolf КРАЙНЕ не рекомендую данного исполнителя! Поначалу нашего сотрудничества я решил почитать отзывы, и половину из них оказались негативными. Люди писали, что исполнитель сначала сильно задерживает со сроками, а после вообще игнорит. Но были и положительные, из-за чего я подумал, что всё же лучше будет согласиться с ним работать. Как же я ошибался.    
    Eleon2012 Прекрасный заказчик! Четкие задания, всегда на связи. Быстрая разблокировка!  
    DenisChigrev Работу делал два месяца, вместо договоренных трех недель. Всё время говорил, что некогда, исправляет какие-то ошибки. При этом делал работы тех, кто делал заявки позже меня. Когда он сделал мне работу, то она мне была уже не нужна. И в итоге отказался делать работы моим додногруппникам-должникам.    
    olga_1309 Большое спасибо за работу! Приятно иметь дело с надежным человеком!  
    myangel очень оперативное выполнение заказа, спасибо большое!  
    valnik Прекрасный автор, очень рекомендую!  
    _Любовь_ Благодарю за качественное выполнение заказа, буду рад работать с Вами еще!  
    vladi_79 Спасибо за досрочную разблокировку!  
    Новые отзывы
    Программистам Дизайнерам Сайты Сервис Копирайтерам Файлообменики Заработок Социальная сеть Статистика
  • Советы и статьи
  • Основы программирования
  • Веб-программирование
  • Soft, программы
  • Статьи, Советы
  • Форум дизайнеров
  • Soft дизайнеров
  • С чего начать?
  • Создание сайтов
  • Раскрутка сайтов
  • CMS системы, магазины
  • Домены, Хостинг
  • Soft, программы
  • Безопасные сделки
  • Менеджеры
  • Личные авторы
  • Личные исполнители
  • CМС Уведомления
  • Email Уведомления
  • СМС пользователям
  • Емэйл и СМС Рассылки
  • Объявления Уведомления
  • Публикация картинок
  • Сокращение ссылок
  • Статьи и Советы
  • Seo
  • Soft, программы
  • Файлообменник бесплатный
  • Обзор файлообменников
  • Заработок на
    файлообменниках
  • Статьи и Советы
  • Облачные хранилища
  • Сайт помощи студентам
  • 2х уровневая реферальная
    программа
  • Удаленное создание заказов
  • Форум о Заработке
  • Статьи, советы
  • Фотогалерея
  • Видеогалерея
  • Лучшие
  • Пользователей: 332573
  • Исполнителей: 7624
  • Заказано работ: 373260
  • Выполнено на заказ: 132044
  • Готовых работ: 176312
  • В библиотеке:2439
  • Полная Статистика
  • контрольные по экономике считаем быстро и дешево.
      Доклад   Диплом  Диссертация  Курсовая  Отчеты по практике  Контрольная  Реферат  Решение задач  Лабораторная  Презентация  Бизнес-планы  Эссе  Отзывы и рецензии   Монография   Чертежи   Перевод   Набор текста, формул   Онлайн