Ақпарат

«Аппараттық» термизация жадтың ыдырауын түсіндіре ала ма?

«Аппараттық» термизация жадтың ыдырауын түсіндіре ала ма?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Көбінесе біз өте нақты ақпаратты есте сақтай аламыз (нақты мекен -жайлар, құқық бұзушылардың туған күндері, кереуеттің астындағы лас шұлықтар саны), бірақ уақыт өте келе біздің есіміз бұлыңғыр болады. Біз енді бір президенттің өлтірілген күні мен айын есімізде сақтамаймыз, тек бір жыл, мүмкін онжылдық (кіші мектепте А студенті болғанына қарамастан). Жылу теңдеуі бойынша дельта функциясының тегістелуі сияқты, бізде шекті мәннің орнына дұрыс болуы мүмкін мәндер ауқымы қалады. Дегенмен, көп жағдайда біз осындай шамамен алынған ақпаратқа толық қанағаттанамыз және олармен жақсы жұмыс істей аламыз (алцгеймер ауруы немесе ішімдік ішудің салдары сияқты функцияның бұзылуының кейбір төтенше жағдайларын қоспағанда).

Дискретті деректер уақыт өте өздігінен жоғары энтропиялық күйге ауысатын мидағы төмен энтропия құрылымдарында сақталуы керек. Сонымен қатар, біздің биология энергияны жұмсау арқылы ыдырауды бәсеңдетуге тырысады (жиі қолданылатын нейрондық жолдар тасталғанға қарағанда жақсы сақталады). Тіпті қателерді түзетуге ұқсас процестер орын алады, мысалы. белгілі бір жоғалған ақпаратқа бүйірлік ойлау және қолда бар деректерді біріктіру арқылы жеткенде.

Менің сұрағым-жады дәлдігінің жоғалуын дискретті ақпарат сақталатын цифрлық құрылымдардың жылытылуымен түсіндіруге бола ма, және егер біреу мені осы бағыттағы зерттеулерге нұсқаса.


Қызықты нүкте, бірақ менің ойымша, естеліктердің ыдырауының қарапайым және мүмкін кеңірек себебі бар. Атап айтқанда, жаңа жадтарды бірдей нейрондық желілерде сақтау қажет болғандықтан, желілік сілтемелердің салмақтары, уақыттары және басқа қасиеттері үнемі өзгеріп отырады. Басқаша айтқанда, есте сақтаудың шектеулі көлемі үшін бәсекелестік бар. Бірдей функциялар мен естеліктер үшін бірдей желілерді қайта пайдалану біздің миымызда резервтің пайда болуының дәл сол себебі болып табылады - сонымен қатар, олар есінде қалуы мүмкін. Ал естеліктер ассоциативті түрде еске түсетіндіктен, әр түрлі естеліктерді кодтайтын екі желі неғұрлым көп байланысса, олардың біреуінің активтенуі екіншісін белсендіреді. Бірақ бұл сонымен бірге сақталатын ақпараттың белгілі бір бөліктері арасындағы шекараны жояды. Бұл есте сақтау мен еске түсірудің сенімділігі мен еске түсірудің жалпы мүмкіндігінің арасындағы байланыс.


Дискретті деректер мидағы энтропиялық құрылымдарда сақталуы керек, олар уақыт өте келе жоғары энтропиялық күйге ауысады.

Жер бетінде мұны қайдан білуге ​​болады? Сіз физиканы мидың жұмысына шамадан тыс кеңейтіп жатырсыз және бұл міндетті түрде солай деп айтатын ештеңе жоқ. Жадтың ыдырауы толық зерттелмеген, бірақ жадты қалыптастыру кезінде неғұрлым көп мүмкіндіктер (яғни, дыбыс, дәм) қолданылса және ол бар білім шеңберімен қаншалықты байланысты болса, жадтың сақталуы мүмкіндігі соғұрлым жоғары болатыны белгілі.


Менің түсінуімше, сіздің шұлықтарыңыздың қайда екенін немесе сіздің мерейтойыңыз қайда екенін еске түсірмеудің екі негізгі себебі бар:

  1. Ақпарат сіз онымен алғаш кездескен кезде, ең алдымен, қысқа мерзімді жадқа арналмаған, сондықтан есте сақтайтын ештеңе болған жоқ.
  2. Ақпарат бүтін, бірақ сіз оны тиімді түрде ала алмайсыз, себебі басқа естеліктер белгілі бір ақпаратты есте сақтауға тырысқанда бәсекелеседі және шу ретінде әрекет етеді.

Бұл сценарийлердің ешқайсысы мидың шайқалуынан немесе мидың ауыр зақымдануынан болатын ұзақ мерзімді есте сақтаудың нақты жоғалуын қамтымайды.


Синестезия

Синестезия (Американдық ағылшын) немесе синестезия (Британдық ағылшын тілі) бір сенсорлық немесе когнитивтік жолды ынталандыру екінші сенсорлық немесе когнитивті жолдағы еріксіз тәжірибеге әкелетін перцептивті құбылыс. [3] [4] [5] [6] Мұндай тәжірибелердің өмір бойы тарихын баяндаған адамдар белгілі синестеттар. Синестетикалық қабылдаулар туралы хабардарлық әркімде әр түрлі. [7] Графемалық-түсті синестезия немесе түсті-графемиялық синестезия деп аталатын синестезияның бір кең таралған түрінде әріптер немесе сандар табиғи түсті болып қабылданады. [8] [9] Кеңістіктік реттілік немесе сандық синестезияда сандар, жыл айлары немесе апта күндері ғарышта нақты орындарды анықтайды (мысалы, 1980 1990 жылдан «алысырақ» болуы мүмкін) немесе мүмкін үш өлшемді карта түрінде пайда болады (сағат тілімен немесе сағат тіліне қарсы). [10] [11] Синестетикалық ассоциациялар кез келген комбинацияда және кез келген сезім мүшелерінде немесе танымдық жолдарда пайда болуы мүмкін. [12]

Синестезия
Басқа атауларСинестезия [1] [2]
Синестезиясы бар адам кейбір әріптер мен сандарды қалай қабылдай алады. Синестеттер кейіпкерлерді басқалар сияқты көреді (қай түсте көрсетілсе де), бірақ бір уақытта түстерді әрқайсысымен байланысты немесе тудырғандай қабылдай алады.
МамандықПсихиатрия, неврология

Синестезияның қалай дамитыны туралы аз біледі. Балалар абстрактілі ұғымдармен алғаш рет интенсивті түрде айналысқан кезде синестезия балалық шақта дамиды деген болжам бар. [13] Бұл гипотеза – деп аталады вакуумдық семантикалық гипотеза – синестезияның ең көп тараған түрлерінің графема-түс, кеңістіктік реттілік және сандық форма болып табылатынын түсіндіреді. Әдетте бұл білім беру жүйелері балалардан үйренуді талап ететін алғашқы дерексіз ұғымдар.

Синестезияны дұрыс анықтауда қиындықтар анықталды. [14] [15] Синестезия («сезімдердің бірігуі») терминіне көптеген түрлі құбылыстар енгізілген, ал көп жағдайда терминология дәл емес болып көрінеді. Дәлірек, бірақ сирек кездесетін термин идеяестезия болуы мүмкін.

Синестезияның ең ерте тіркелген жағдайы Оксфорд университетінің академигі және философы Джон Локкқа жатады, ол 1690 жылы кернейдің дыбысын естігенде қызыл түсті бастан кешірген соқыр адам туралы баяндама жасады. [16] Алайда, Локк синестезияның нақты жағдайын суреттеді ме, әлде метафораны қолданды ма деген пікірде келіспеушілік бар. [17] Алғашқы медициналық есеп 1812 жылы неміс дәрігері Георг Тобиас Людвиг Сакстен келді. [17] [18] [19] Бұл термин ежелгі грек тілінен алынған. син, «бірге» және αἴσθησις астез, «сезім». [16]


Бұл жерде шындықтың элементі бар - шабуылдаушыға жедел жадыдағы деректердің сақталуын пайдаланатын шабуыл ашылды, бұл шабуылдаушыға ЖЖҚ -дан ақпаратты машинада алуға мүмкіндік береді. Мұны істеу үшін өте қысқа уақыт кезеңі болды (бірнеше секунд немесе минут), бірақ бұл компьютерді бұзу емес.

Мұнда МакГрю сілтемесі толығырақ ақпарат береді

Иә, бірақ «өшіру» термині түсініксіз болуы мүмкін.

Компьютер жұмыс істеу үшін қуатты қажет етеді. ДК қабырғадан айнымалы токпен (айнымалы ток) қуат алады, бірақ компьютер бөліктері тұрақты токты (тұрақты ток) қажет етеді. Жұмыс үстелі ДК ішінде айнымалы токты тұрақты токқа түрлендіретін қуат көзі бар. Жұмыс үстелі ДК қабырғаға қосылған кезде, ол үнемі айнымалы ток алады.

Алғашқы күндерде компьютерде алдыңғы жағында қосқышы бар «AT» қуат көзі болды. 'AT' типті қоректендіру көзінде тұрақты тоқтың тоқтауын басатын түйме қосқышы болды. Бұл мәселе қатты дискіге жазу кезінде пайдаланушылар компьютерді өшіретін болды. Қатты дискіні жазу кезінде қуатты өшіру қатты дискінің бүлінуіне әкеледі.

Сонымен, ДК дизайнының келесі қайталануы ATX қуат көзі болды. Бұл дизайнда аналық платаға қосылған қуат көзі және ДК алдыңғы жағындағы қосқыш аналық платаға қосылған. ATX конструкциясы үшін ажыратқышты басу арқылы аналық платаға сигнал жіберіледі, Операциялық жүйе аналық платадағы сигналды оқиды және қуат көзіне сигнал жібереді.

Қуат көзінің бірнеше тұрақты ток шығысы бар. Қатты диск (және дискета) 12 вольтты қолданды. Орталық процессор 5 вольтты, ал кейінірек 3,3 вольтты алды. Әртүрлі кернеулер тәуелсіз, сондықтан басқа бөліктер қосулы кезде компьютердің әртүрлі бөліктерін қосуға болады.

Компьютердің алдыңғы жағындағы қуат түймесін басқан кезде немесе Операциялық жүйеден өшіруді таңдағанда, әрқашан кем дегенде бір немесе екі қуат қосылатын құрамдас болады. Кем дегенде, қуат түймесі сигналын қабылдайтын және оны қуат көзіне жіберетін аналық платадағы тізбек қуатқа қосылуы керек және ДК қабырғаға жалғанғанша жұмыс істейді.

Қарастырылып отырған компонент - бұл ЖЖҚ (іс жүзінде DRAM), ЖЖҚ қуатының өшірілгенін немесе компьютерді өшірудің қандай әдісі ЖЖҚ қуат беруін тоқтататынын анықтау оңай емес.

ЖЖҚ -да қуат жоқ екеніне сенімді болудың жалғыз жолы - компьютерді қабырғаға ажырату.

ЖЖҚ қуатпен қамтамасыз етілгенше, ЖЖҚ онда болғанның бәрін сақтайды.

ЖЖҚ өшірілгенде, коннекторлар ыдырай бастайды және бір сәтте оқылмайды. Температура жедел жадтағы мәліметтердің тез ыдырауына әсер етеді. Температураны төмендету деректердің ыдырауын баяулатады. Төңкерілген қарапайым «консервіленген ауа» шаңсорғыш шабуылдаушыға жедел жадының температурасын салқындатуға мүмкіндік береді, бұл ЖЖҚ мазмұнын шығаруға арналған арнайы операциялық жүйемен машинаны қайта жүктеуге мүмкіндік береді.

Бұл шабуыл тек жүктелетін CD/DVD немесе USB флэш-дискісі мен консервіленген ауа шаңын тазалауды қажет етеді.


Мазмұны

Кванттық механика физикалық жүйелердің қасиеттері мен тәртібін есептеуге мүмкіндік береді. Ол әдетте микроскопиялық жүйелерге қолданылады: молекулалар, атомдар және субатомдық бөлшектер. Ол мыңдаған атомдары бар күрделі молекулаларды ұстайтыны дәлелденді, [4], бірақ оның адамдарға қолданылуы Вигнердің досы сияқты философиялық мәселелерді көтереді, ал оның бүкіл ғаламға қолданылуы алыпсатарлық болып қала береді. [5] Кванттық механиканың болжамдары жоғары дәлдікте эксперименталды түрде расталды. [1 ескертпе]

Теорияның негізгі ерекшелігі - ол әдетте не болатынын сенімді түрде болжай алмайды, тек ықтималдылық береді. Математикалық түрде ықтималдық ықтималдылық амплитудасы деп аталатын комплекс санының абсолюттік мәнінің квадраты арқылы табылады. Бұл физик Макс Борнның құрметіне туылған ереже деп аталады. Мысалы, электрон тәрізді кванттық бөлшекті толқындық функциямен сипаттауға болады, ол кеңістіктегі әрбір нүктеге ықтималдық амплитудасын байланыстырады. Born ережесін осы амплитудаға қолдану электронды өлшеу үшін эксперимент жүргізілген кезде болатын позицияның ықтималдық тығыздығының функциясын береді. Бұл теория жасай алатын ең жақсы нәрсе, ол электронның қай жерде болатынын нақты айта алмайды. Шредингер теңдеуі уақыттың бір сәтіне жататын ықтималдық амплитудасының жиынтығын екіншісіне қатысты ықтималдық амплитудасының жиынтығымен байланыстырады.

Кванттық механиканың математикалық ережелерінің бір салдары - әр түрлі өлшенетін шамалар арасындағы болжамдылықтың ауысуы. Бұл белгісіздік принципінің ең әйгілі формасы кванттық бөлшек қалай дайындалса да және оған мұқият эксперимент жасалса да, оның орнын өлшеу үшін дәл болжам жасау мүмкін емес екенін айтады. оның серпіні туралы.

Кванттық механиканың математикалық ережелерінің тағы бір салдары кванттық интерференция құбылысы болып табылады, ол көбінесе қос жарылған экспериментпен суреттеледі. Бұл эксперименттің негізгі нұсқасында лазер сәулесі сияқты когерентті жарық көзі екі параллель ойықпен тесілген пластинаны жарықтандырады, ал жарықтар арқылы өтетін жарық пластинаның артындағы экранда байқалады. [6]: 102–111 [2]: 1.1–1.8 Жарықтың толқындық сипаты екі саңылау арқылы өтетін жарық толқындарына кедергі келтіріп, экранда ашық және күңгірт жолақтар шығарады - бұл нәтиже жарық болған жағдайда күтілмейді. классикалық бөлшектер. [6] Дегенмен, жарық әрқашан экранда дискретті нүктелерде жұтылады, өйткені толқындар емес, жеке бөлшектер сияқты интерференция үлгісі экранда осы бөлшектердің соғуының әртүрлі тығыздығы арқылы пайда болады. Сонымен қатар, саңылаулардағы детекторларды қамтитын эксперименттің нұсқалары әрбір анықталған фотонның екі саңылаудан емес (толқын сияқты) бір саңылаудан (классикалық бөлшек сияқты) өтетінін анықтайды. [6] : 109 [7] [8] Дегенмен, мұндай эксперименттер бөлшектердің қай саңылау арқылы өтетінін анықтаған жағдайда олардың интерференция үлгісін құрмайтынын көрсетеді. Басқа атомдық масштабтағы объектілер, мысалы, электрондар, екі жарылғанда атылған кезде де осындай мінез-құлықты көрсетеді. [2] Бұл мінез толқындық бөлшектердің қосарлылығы деп аталады.

Кванттық механика болжаған тағы бір қарама-қарсы интуитивтік құбылыс кванттық туннельдеу болып табылады: потенциалдық кедергіге қарсы көтерілген бөлшек, оның кинетикалық энергиясы потенциалдың максимумынан аз болса да, одан өте алады. [9] Классикалық механикада бұл бөлшек ұсталып қалады. Кванттық туннельдеудің бірнеше маңызды салдары бар, олар радиоактивті ыдырауды, жұлдыздардағы ядролық синтезді және сканерлеуші ​​туннельдік микроскоп пен туннельдік диод сияқты қолданбаларды қамтамасыз етеді. [10]

Кванттық жүйелер өзара әрекеттескенде, нәтиже кванттық шатасудың пайда болуы болуы мүмкін: олардың қасиеттері бір -бірімен байланысты болғандықтан, тұтастықты жеке бөліктер бойынша ғана сипаттау мүмкін болмайды. Эрвин Шредингер шатасуды атады ». the кванттық механикаға тән қасиет, оның классикалық ой сызығынан толық ауытқуын қамтамасыз ететін». [11] Кванттық түйісу кванттық псевдотелепатияның қарсы интуитивті қасиеттерін қамтамасыз етеді және кванттық сияқты коммуникация протоколдарында құнды ресурс бола алады. кілттерді тарату және шамадан тыс кодтау. [12] Танымал қате түсінікке қарама-қайшы, байланыстың жоқ теоремасы көрсеткендей, сигнал жарықтан жылдам жіберуге мүмкіндік бермейді. [12]

Қателесу арқылы ашылатын тағы бір мүмкіндік - бұл кванттық теорияға қарағанда дәл болжам жасауға мүмкіндік беретін гипотетикалық қасиеттердің кванттық теорияда айтылғаннан гөрі іргелі гипотетикалық қасиеттерді тексеру. Нәтижелер жинағы, ең бастысы Белл теоремасы, мұндай жасырын айнымалы теориялардың кең кластары кванттық физикаға сәйкес келмейтінін көрсетті. Белл теоремасы бойынша, егер табиғат шын мәнінде кез келген теорияға сәйкес әрекет етсе жергілікті жасырын айнымалылар, содан кейін Bell тестінің нәтижелері белгілі бір мөлшерде шектеледі. Қатысқан бөлшектерді қолдану арқылы көптеген Bell тесттері жүргізілді және олар жергілікті жасырын айнымалылар қойған шектеулерге сәйкес келмейтін нәтиже көрсетті. [13] [14]

Кванттық механиканы түсіну тек күрделі сандарды өңдеуді ғана емес, сонымен қатар сызықтық алгебра, дифференциалдық теңдеулер, топ теориясы және басқа да жетілдірілген пәндерді қажет ететін нақты математиканы енгізбестен бұл ұғымдарды үстірт түрде ұсыну мүмкін емес. [2-ескертпе] Тиісінше, бұл мақала кванттық механиканың математикалық тұжырымын ұсынады және оның кейбір пайдалы және жиі зерттелетін мысалдарға қолданылуын қарастырады.

Қызығушылықтың физикалық шамалары-позиция, импульс, энергия, спин-Гильберт кеңістігінде әрекет ететін гермиттік (дәлірек айтқанда, бір-бірімен байланысқан) сызықтық операторлар болып табылатын бақылаушылармен ұсынылған. Кванттық күй бақыланатынның меншікті векторы бола алады, бұл жағдайда оны меншіктік деп атайды, ал байланысты меншікті мән осы меншіктегі байқалатынның мәніне сәйкес келеді. Жалпы алғанда, кванттық күй кванттық суперпозиция деп аталатын меншікті күйлердің сызықтық комбинациясы болады. Бақыланатын нәрсені өлшегенде, нәтиже Born ережесімен берілген ықтималдықпен меншікті мәндерінің бірі болады: ең қарапайым жағдайда λ < displaystyle lambda> меншікті мәні деградацияланбаған және ықтималдылық | ⟨Λ →, ψ⟩ | 2 < displaystyle | langle < vec < lambda >>, psi rangle |^<2>>, мұнда λ → < displaystyle < vec < lambda >>> - оның меншікті векторы. Жалпы айтқанда, меншікті мән нашарлайды және ықтималдылық ⟨ψ, P λ ψ⟩ < displaystyle langle psi, P _ < lambda> psi rangle> арқылы беріледі, мұнда P λ < displaystyle P _ < lambda> > байланысты меншікті кеңістіктегі проектор болып табылады. Үздіксіз жағдайда бұл формулалар оның орнына ықтималдық тығыздығын береді.

Өлшеу аяқталғаннан кейін, егер нәтиже λ < displaystyle lambda> алынған болса, кванттық күй collapse → < displaystyle < vec < lambda >>>, деградацияланбаған жағдайда немесе P λ күйіне келтіріледі. ψ / ⟨ ψ , P λ ψ ⟩ psi /psi angle >>> , жалпы жағдайда. Осылайша, кванттық механиканың ықтималдық сипаты өлшеу актісінен туындайды. Бұл кванттық жүйелерді түсінудің ең қиын аспектілерінің бірі. Бұл әйгілі Бор -Эйнштейн пікірталастарының негізгі тақырыбы болды, онда екі ғалым ойлау тәжірибелері арқылы осы негізгі принциптерді түсіндіруге тырысты. Кванттық механиканың тұжырымдамасынан кейінгі ондаған жылдар ішінде «өлшеу» деген не деген сұрақ жан -жақты зерттелді. «Толқындық функцияның құлдырауы» тұжырымдамасын жоққа шығаратын кванттық механиканың жаңа интерпретациялары тұжырымдалған (мысалы, көп әлемді түсіндіруді қараңыз). Негізгі идея - кванттық жүйе өлшеу аппаратымен өзара әрекеттескенде, олардың тиісті толқындық функциялары түйіседі, осылайша бастапқы кванттық жүйе тәуелсіз объект ретінде өмір сүруін тоқтатады. Толық ақпаратты кванттық механикада өлшеу туралы мақаланы қараңыз. [17]

Кванттық күйдің уақыттық эволюциясы Шредингер теңдеуімен сипатталады:

Мұнда H < displaystyle H> жүйенің жалпы энергиясына сәйкес келетін гамильтонды білдіреді, ал ℏ < displaystyle hbar> - бұл Планк тұрақтысы. I ℏ < displaystyle i hbar> тұрақтысы енгізіледі, осылайша гамильтониандық классикалық гамильтонға дейін азаяды, егер кванттық жүйені классикалық жүйемен жақындатуға болатын болса, мұндай жақындауды белгілі бір шектерде жасау мүмкіндігі сәйкестік деп аталады. принцип

Бұл дифференциалдық теңдеудің шешімі келесі арқылы берілген

Кейбір толқындық функциялар уақытқа тәуелді емес ықтималдықтардың таралуын шығарады, мысалы, гамильтондықтардың меншікті жағдайлары. Классикалық механикада динамикалық өңделетін көптеген жүйелер осындай «статикалық» толқындық функциялармен сипатталады. Мысалы, қозбаған атомдағы жалғыз электрон классикалық түрде атом ядросының айналасында дөңгелек траекториямен қозғалатын бөлшек ретінде бейнеленсе, кванттық механикада ол ядроны қоршап тұрған статикалық толқындық функция арқылы сипатталады. Мысалы, қозбаған сутегі атомы үшін электронды толқындық функция сфералық симметриялы функция болып табылады. с орбиталық (Cурет 1).

Шредингер теңдеуінің аналитикалық шешімдері өте аз салыстырмалы қарапайым Гамильтондық модельдерге белгілі, соның ішінде кванттық гармоникалық осциллятор, қораптағы бөлшек, дигидроген катионы және сутегі атомы. Тіпті екі электроны бар гелий атомы да толық аналитикалық өңдеудің барлық әрекеттерін жоққа шығарды.

Дегенмен, шамамен шешімдерді табудың әдістері бар. Бұрмалану теориясы деп аталатын бір әдіс әлсіз потенциалды энергияны қосу арқылы байланысты, бірақ күрделі модельге нәтиже жасау үшін қарапайым кванттық механикалық модельге арналған аналитикалық нәтижені қолданады. Тағы бір әдіс «жартылай классикалық қозғалыс теңдеуі» деп аталады, ол кванттық механика классикалық мінез-құлықтан аз ғана ауытқулар тудыратын жүйелерге қатысты. Бұл ауытқуларды классикалық қозғалыс негізінде есептеуге болады. Бұл тәсіл әсіресе кванттық хаос саласында маңызды.

Белгісіздік принципі

Негізгі кванттық формализмнің бір салдары - белгісіздік принципі. Бұл өзінің ең таныс түрінде кванттық бөлшектерді дайындаудың бір мезгілде оның орнын өлшеу үшін де, оның импульсін өлшеу үшін де дәл болжауды білдіре алмайтынын көрсетеді. [19] [20] Позиция да, импульс те бақыланатын, яғни олар Эрмит операторларымен берілген. Позиция операторы X ^ < displaystyle < hat >> және импульс операторы P ^ >> жүруге болмайды, керісінше канондық коммутация қатынасын қанағаттандырады:

және де импульс үшін:

Белгісіздік принципі мұны көрсетеді

Кез келген стандартты ауытқу принцип бойынша ерікті түрде аз болуы мүмкін, бірақ екеуі де бір уақытта емес. [21] Бұл теңсіздік A < displaystyle A> және B < displaystyle B> бір-бірімен байланысқан операторлардың ерікті жұптарын жалпылайды. Осы екі оператордың коммутаторы болып табылады

және бұл стандартты ауытқулар көбейтіндісінің төменгі шегін береді:

Канондық коммутациялық қатынастың тағы бір салдары мынада: позиция мен импульс операторлары бір -бірінің Фурье түрлендірулері болып табылады, сондықтан оның импульсіне сәйкес объектінің сипаттамасы оның сипаттамасына сәйкес Фурье түрлендіруі болып табылады. Импульстегі тәуелділіктің позициядағы тәуелділіктің Фурье түрлендіруі импульстің операторы позицияға сәйкес туынды қабылдауға эквивалентті (i / ℏ < displaystyle i / hbar> факторына дейін) екенін білдіреді. Фурье талдауының дифференциациясы қосарлы кеңістіктегі көбейтуге сәйкес келеді. Сондықтан позициялық кеңістіктегі кванттық теңдеулерде импульс p i > ауыстырылады-i ℏ ∂ ∂ x < displaystyle -i hbar < frac < partial> < partial x >>>, және әсіресе релятивистік емес Шредингер теңдеуінде позиция кеңістігінде импульс-квадрат мүшесі Лаплас уақытына ауыстырылады -<2 < displaystyle - hbar ^<2>>. [19]

Композициялық жүйелер мен шатасулар

Екі түрлі кванттық жүйені бірге қарастырғанда, біріктірілген жүйенің Гильберт кеңістігі екі компоненттің Гильберт кеңістігінің тензор туындысы болып табылады. Мысалы, А мен В екі кванттық жүйе болсын, Гильберт бос орындары H A < displaystyle < mathcal > _> және H B < displaystyle < mathcal >_>, тиісінше. Содан кейін композиттік жүйенің Гильберт кеңістігі

бөлінбейтін жарамды бірлескен мемлекет. Бөлінбейтін мемлекеттер араласқан деп аталады. [22] [23]

Егер композициялық жүйенің күйі шатасса, А компонентті жүйесін де, В жүйесін де күй векторымен сипаттау мүмкін емес. Оның орнына екі компонентті жүйеде өлшеу арқылы алуға болатын статистиканы сипаттайтын қысқарған матрицаларды анықтауға болады. Бұл міндетті түрде ақпараттың жоғалуына әкеледі, дегенмен: жеке жүйелердің қысқартылған тығыздық матрицаларын білу композиттік жүйенің күйін қайта құру үшін жеткіліксіз. [22] [23] Тығыздық матрицалары үлкен жүйенің кіші жүйесінің күйін көрсететіні сияқты, оператордың оң бағаланған өлшемдері де (POVMs) үлкен жүйеде орындалатын өлшемнің кіші жүйесіне әсерін сипаттайды. POVM кванттық ақпарат теориясында кеңінен қолданылады. [22] [24]

Жоғарыда сипатталғандай, шатасу өлшеу процестерінің үлгілерінің негізгі ерекшелігі болып табылады, онда құрылғы өлшенетін жүйемен шатасып қалады. Орналасқан ортамен әрекеттесетін жүйелер, әдетте, қоршаған ортаға араласады, бұл құбылыс кванттық декоэренция деп аталады. Бұл микроскопиялықтан үлкенірек жүйелерде кванттық әсерлерді байқаудың неге қиын екенін түсіндіре алады. [25]

Формулалар арасындағы эквиваленттілік

Кванттық механиканың көптеген математикалық эквивалентті формулалары бар. Ең көне және кең тарағандардың бірі Пол Дирак ұсынған «трансформация теориясы» болып табылады, ол кванттық механиканың ең ерте екі тұжырымын – матрицалық механиканы (Вернер Гейзенберг ойлап тапқан) және толқындық механиканы (Эрвин Шредингер ойлап тапқан) біріктіреді және жалпылайды. [26] Кванттық механиканың балама тұжырымы-Фейнманның интегралдық формуласы, онда кванттық-механикалық амплитуда бастапқы және соңғы күйлер арасындағы барлық мүмкін классикалық және классикалық емес жолдардың қосындысы ретінде қарастырылады. Бұл классикалық механикадағы әрекет принципінің кванттық-механикалық аналогы.


Термодинамикалық бит (кТ-бит)

Термодинамикалық разрядтар энергияны бөлетін бифуркация нүктелері болып табылады. Ағаштар, жапырақтар, жарықтандыру, өзендер, ми және қан айналымы жүйесі kT-биттерден жасалған құрылымның кейбір мысалдары болып табылады, бірақ одан да көп. Шын мәнінде, сіз термодинамикалық бит көре алмайтын жалғыз уақыт - егер сіз ғимараттың немесе қаланың ішінде болсаңыз, табиғаттан алшақ болсаңыз және айнаға немесе басқа тірі заттарға қарамасаңыз. Айқын емес мысалдар сізде екі бәсекелес энергияны тарататын жолдар болған кезде пайда болады, бірақ ол ағашқа ұқсамайды. Сіздің денеңіздегі органдар, жасушалардағы органеллалар және біздің экономикамыздағы компаниялар кейбір айқын емес мысалдар. Олар ағаштарға ұқсамаса да, олар энергияны таратудың бейімделгіш құрылымдарымен бәсекелеседі. Барлық жағдайларда бос энергияның таралуының тікелей тасымалдаушысы болып табылатын ұйым арқылы өтетін бөлшек бар (мысалы, электрон) немесе энергия шығуына (қан, АТФ, ақша және т. Табиғи жүйелерде жүйе (ағынның контейнері) энергияның таралуын барынша арттыру үшін осы бәсекелес ағындарды реттеу үшін автоматты түрде дамиды. Әрбір түйіспеде екі диссипация жолы өткізгіш ресурстар үшін бәсекелеседі. Бұл құрылыс материалы - біз термодинамикалық бит деп атаймыз, және біз оның әмбебап бейімделетін есептеуіш блок екенін анықтадық.

Табиғаттағы термодинамикалық биттер тірі құрылымдарға ағынды барынша арттыруға динамикалық түрде бейімделуге мүмкіндік береді және осылайша термодинамиканың екінші заңына сәйкес жалпы энтропия өндірісін арттырады. Мемристорлар жұбымен синтетикалық термодинамикалық бит жасай аламыз.

Уақыт пен кеңістікте дамитын термодинамикалық битке тез мысал келтіру үшін бір симметриялы шанышқымен ағаш бұтағын алыңыз. Шанышқының бір жағындағы барлық жапырақтардың күн сәулесін жауып, бұтақтың алдында басқа ағаш өсетінін елестетіп көріңіз. Жарықты көбірек алатын жақ көлеңкедегі жаққа қарағанда көбірек өседі. Бұрын симметриялы шанышқы енді күнге шығатын бағытта жуан болады, онда тамырлар алған су аспанға буланып кетуі мүмкін. Осылайша, ағаш ағынды барынша арттыру үшін оңтайлы конфигурацияға бейімделіп өседі (4-ші заң) және осылайша термодинамиканың екінші заңына сәйкес энтропияны арттырады.


Нәтижелер

Біз синаптикалық консолидацияға негізделген нейрондық және синаптикалық динамиканың биофизикалық тұрғыдан сенімді желілік моделін құруды мақсат еттік. Бұл үшін алдыңғы зерттеулерге негізделген 13,15,20 , біз синаптикалық пластиканы іске қосу үшін жергілікті кальций динамикасын біріктіретін синаптикалық модельді және STC механизмдерін қолдандық (1а-сурет). Біз бұл синаптикалық модельді ағып кететін интеграциялау және өртеу моделімен, аксональды кідіріспен және нейрондық желілердегі сигналдарды генерациялау мен берудің маңызды аспектілерін қамту үшін соңғы синаптикалық уақыт константасымен бірге қолдандық. Әдістер »бөлімі, сілтемелер 45,46). Желінің өзі сирек қосылды және ол барлау кезінде ояту кезінде гиппокампта болатын байланыс пен атыс жылдамдығына ұқсайтындай кіріс алды (реф. 47,48,49,50 Қосымша суретті қараңыз. S3). Қоздырғыш нейрондардың белгілі бір бөлігіне қосымша, күшті кіріс тітіркендіргішін қолдану арқылы жасуша жинақтары пайда болды (сурет 1b). Төменде біз желілік модельдің сипаттамаларын ұсынбас бұрын алдымен синапс моделінің негізгі принциптерімен таныстырамыз және оның динамикасын тәжірибелік деректермен салыстырамыз.

а Синаптикалық модель кальцийге тәуелді синаптикалық пластиканың әртүрлі механизмдері мен STC гипотезасы арасындағы өзара әрекеттесуді біріктіреді. Қосымша мәліметтер алу үшін негізгі мәтінді қараңыз. б Қоздырғыш (көк және қою көк шеңберлер) және ингибиторлық нейрондардан (қызыл шеңберлер) тұратын және мидың басқа аймақтарынан (жасыл көрсеткілер) сыртқы ақпаратты қабылдайтын нейрондық желінің бөлігінің схемасы. Тек қана қоздырғыш нейрондар арасындағы синапстар (көк және қою көк көрсеткілер) көрсетілген процестер бойынша пластикалық өзгерістерге ұшырайды а. Hebbian ұяшық жинағы жадты білдіреді және өзара тығыз байланысқан нейрондар тобынан тұрады (қара көк).

Синапс моделін эксперименттік мәліметтермен салыстыру

Жалпы алғанда, модель нейронның мембраналық потенциалының постсинапстық кальций концентрациясына дейінгі пресинаптикалық шоғырланумен бірге жүретін динамикасын анықтайды деп есептейді (1а -сурет). Кальций концентрациясы синаптикалық тиімділіктің ерте фазалық компонентінің (немесе салмағының) өзгерістерімен ұсынылған ерте фазалық LTP және ерте фазалық LTD пайда болуын анықтайды. Ерте фазалық салмақтың үлкен өзгерістері синапсқа тән тегтің пайда болуына әкеледі. Постсинаптикалық нейронның көптеген синапстарында ерте фазалық өзгерістердің жеткілікті мөлшері ақуыз синтезін тудырады. Ақуыздардың жеткілікті мөлшері қол жетімді болғаннан кейін және синапс белгіленсе, синаптикалық тиімділіктің кеш фазалық компоненті өзгереді, осылайша синапс белоктарды «ұстап алады». Ерте және кеш фазалық салмақтың қосындысы нейронға келетін мембраналық потенциалға әсер ететін постсинаптикалық потенциалдардың шамасын анықтайтын жалпы синаптикалық тиімділікті береді. Бұл әр түрлі процестердің өзара әрекеттесуі 19,35,51,52 стандартты пластикалық индукция эксперименттерінде зерттеледі. Бұл эксперименттерде сіреспенің күшті стимуляциясы (STET) соңғы фазалық потенциалды индукциялау үшін қолданылады, ал әлсіз сіреспе стимуляциясы (WTET) тек бастапқы фазалық потенциалды индукциялау үшін қолданылады. Кеш фазалық депрессия үшін күшті төмен жиілікті ынталандыру (ТЖЖ) қолданылады, ал ерте кезеңдегі депрессия үшін әлсіз төмен жиілікті ынталандыру (ТЖЖ) жеткілікті. Біздің синаптикалық модель тұжырымдамасының дәлелі ретінде біз екі нейрон арасындағы бір пластикалық синапсты қарастыру және пресинаптикалық нейронға ұқсас ынталандыру хаттамаларын қолдану арқылы осы эксперименттердің нәтижесін шығардық (толығырақ ақпарат алу үшін Қосымша S1 суретін қараңыз). Төрт индукциялық хаттамаға жауап ретінде синаптикалық тиімділіктің уақыттық іздері (2 -сурет) жоғарыда және алдыңғы теориялық зерттеулер 15,20,27,28 талқыланғандай эксперименттердің нәтижелеріне сәйкес келеді. Біздің STET және SLFS модельдеудегі ауытқулар мен жергілікті максимумдар соңғы фазалық пластикалық парадигмалар үшін ортақ диапазонда (сілт. Сілтемелер. 35,51,52). Нәтижелер біздің синаптикалық модельдің негізгі биомолекулалық динамиканың ақылға қонымды сипаттамасын беретінін көрсетеді. Осылайша, осы синаптикалық модельге сүйене отырып, келесі қадамда біз қайталанатын нейрондық желідегі синаптикалық және нейрондық динамикаға талдауымызды енгіземіз.

Әрбір хаттама (толығырақ S1 қосымша суретін қараңыз) синаптикалық пластиканың басқа түрінің индукциясына әкеледі: а кеш фазалы потенциализация, б ерте кезеңдегі потенциализация, в кеш кезеңдегі депрессия және d ерте кезеңдегі депрессия. Кеш фазалық салмақ (көк сызық) тек күшті ынталандыру (STET, SLFS) арқылы өзгереді. The early-phase weight (red line) is affected by all protocols. Weak stimulation protocols (WTET, WLFS) suffice to drive the early-phase weight across the threshold of tag formation (θтег, dashed red line), but not across the threshold of triggering protein synthesis (θпро, dashed green line). The total weight or synaptic efficacy (orange) is the sum of early- and late-phase weight. Averaged over 100 trials error bands show the standard deviation. The late-phase weight has been shifted for graphical reasons (cf. “Methods” section).

Network model with synaptic consolidation enables functional memory representations

Employing our synaptic model, we simulated a patch of tissue with hippocampal network characteristics, consisting of 2000 neurons with 20% being inhibitory and a 0.1 average probability of two neurons being connected by a synapse (Fig. 1b). Synapses between excitatory neurons (blue, dark blue) feature plasticity mechanisms, as described above. Inhibitory neurons provide feedback inhibition their connections are nonplastic (purple, red). All neurons in the patch received additional inputs from outside the network, which have particular characteristics for the encoding and recalling of a memory. During learning, a specific stimulus is provided to a group of neurons and should trigger the formation of particularly strong connections between these neurons, which then represent a Hebbian cell assembly or memory (Fig. 1b, dark blue). During recall, only a subset of the group of neurons that received the learning stimulus received specific external stimulation.

To investigate the synaptic and neuronal dynamics implied by the STC mechanisms, throughout this study, we focused on two time spans. We evaluated the state of the neural network

10 s after the learning stimulus to analyze the short-term dynamics and after

8 h to investigate the long-term effects of the STC mechanisms.

The learning stimulus consisted of three subsequent pulses of 0.1 s each, strongly activating a random subset of neurons. In experiments, strong tetanus stimuli of

100 Hz are used to evoke late-phase synaptic potentiation 18,35,51 . To resemble this, we applied stimulation of similar strength via 25 putative input neurons. A necessary consequence of this strong input is the fact that during stimulation, the stimulated neurons spike at their maximum. As expected, the stimulus caused tremendous changes of the synaptic efficacy of diverse synapses in the network (compare Fig. 3a, b). Synapses associated with the stimulated neurons (first 150 neurons Fig. 3a–c) mainly experienced LTP (red). The synapses between stimulated neurons (black box in Fig. 3a–c) are strengthened particularly, indicating the correct formation of a cell assembly. By contrast, synapses between non-stimulated neurons underwent LTP as well as LTD (blue). After 8 h, the synaptic changes between non-stimulated neurons fade, such that mainly changes associated with the stimulated neurons and, thus, with the cell assembly remain (Fig. 3c). To validate that the formed cell assembly encodes a memory, next, we tested the ability of recall. For this, we applied a recall stimulus that activates for 0.1 s 50% of the neurons that were stimulated by the learning signal, and analyzed the resulting spread of activation within the network (Fig. 3d, e). The externally stimulated neurons (“as”) have the highest activity. By the strong recurrent connections in the cell assembly, the average activity of the non-stimulated neurons in the cell assembly (“ans”) is significantly higher than the activity of the remaining non-stimulated neurons (“ctrl”). This is not the case for control stimulation applied before learning. In other words, the activity of the recall stimulus spreads via the stimulated neurons to the other cell assembly neurons and yields a type of pattern completion or recall (in the literature sometimes also called retrieval). Please note that, under basal/standby conditions, the mean firing rate of all excitatory neurons resembles the average value of 0.5–1.0 Hz for pyramidal cells in the hippocampus during exploratory wake states (refs. 49,50 see also Supplementary Fig. S3). We further analyzed the spread of activity by considering the mean firing rate correlations between the neuronal subpopulations (Fig. 3f). The correlations generally increase with learning and consolidation, which is in line with the previous finding of increased mean firing rates. Furthermore, we found that correlations within the cell assembly (“as” and “ans”) are larger than correlations with control neurons (“ctrl”), which again indicates functional memory recall and further leads to the expectation of more LTP for connections involving “as” and “ans” neurons. This already suggests an “active improvement” of the cell assembly, which we will investigate in a later section. On the other hand, the fact that correlations between cell assembly neurons and control neurons are also increased by recall stimulation shows that control neurons indirectly contribute to recall. This is corroborated by previous work 53 and by the distribution of synaptic weights, which exhibits tremendously increased weights from control to cell assembly neurons (“incoming” weights in Fig. 3b, c and Supplementary Figs. S4 and S5). In summary, the results presented in this section show that calcium-dependent synaptic plasticity and the STC mechanisms enable the encoding of memory and its maintenance for several hours in a recurrent neural network. Thereby, our findings support the idea that the STC mechanisms account for the synaptic consolidation of memories. In the next section, specific measures for memory recall will be presented.

ав The matrix of total (early- plus late-phase) synaptic weights sorted by the stimulated neurons (first 150): а before learning, б

10 s after learning, and в

8 h after learning. The insets show the spiking during recall stimulation of the neurons in the cell assembly (colors as in d, д) and of a random 5% fraction of the neurons in the remaining excitatory (blue) and inhibitory (red) populations. d Schematic of the three subpopulations during recall stimulation: the fraction of externally stimulated cell assembly neurons (“as”), the fraction of cell assembly neurons that are not stimulated (“ans”), and the remaining excitatory neurons acting as control group (“ctrl”). д The mean firing rates of the three subpopulations defined in d, before learning and without recall (standby), before learning during control recall stimulation, upon recall 10 s after learning, and upon recall 8 h after learning. f Mean firing rate correlations (presynaptic multiplied by postsynaptic firing rate, averaged over neuron pairs) within and between subpopulations for the same protocols as in д. Synaptic weights, mean firing rates and mean correlations were averaged over ten trials. Қате жолақтары стандартты ауытқуды көрсетеді. Параметрлер: wie/h0 = 4, wіі/h0 = 4.

Memory functionality depends on network inhibition and size of the representation

In the following, we investigate the influence of different parameters, such as inhibition and cell assembly size on the learning, recall, and consolidation of memory representations.

In general, one role of inhibition in neural networks is to prevent the network activity from runaway or epileptiform dynamics. This kind of dynamics is characterized by neurons constantly exciting each other and firing at the maximum possible rate. On the other hand, if inhibition is excessively strong, neuronal activity is confined, resulting in a more or less silent network. We adjusted the level of inhibition in our network by varying the coupling strength from inhibitory neurons to excitatory neurons (wie) and the coupling strength from inhibitory to inhibitory neurons (wіі). For every set of these parameter values, we simulated the network dynamics during learning and recall, as described before. At two different points in time (10 s and 8 h after learning), we evaluated the memory functionality that consists of learning, consolidation, and recall of a memory by measuring the recall quality. To measure the recall quality, we used two different quantities (cf. “Methods” section): on the one hand, the pattern completion coefficient Q describes by how much the activity in the non-stimulated part of the input-defined cell assembly is raised during recall, as compared to the activity of the control neurons on the other hand, the mutual information MIν describes how similar the network activity state during recall is to the network activity state during learning. We quantitatively defined memory functionality by an average pattern completion coefficient of Q ≥ 0.03. This criterion demands that, upon stimulation of half of the assembly neurons, the other half of the assembly be activated much stronger than the background neurons, which remain at a low activity level (cf. Fig. 3e). Please note that the values of the pattern completion coefficient appear small because we normalize by the activity of the stimulated neurons (cf. Eq. (17)).

High values of the I → I coupling strength together with low values of the I → E coupling strength imply a low level of inhibition, which impedes memory functionality in our network model (see Fig. 4a, c for the recall performance 10 s after learning and Fig. 4b, d for 8 h after learning). This impairment goes along with the runaway dynamics discussed before, as indicated by the extreme level of population activity in this parameter regime (Fig. 4e, f). In general, if a network is in such an “epileptiform” state, a recall stimulus does not exclusively activate the neurons that belong to the cell assembly - it also activates a large fraction of control neurons, overshadowing memory recall. On the other hand, low values of the I → I coupling strength together with high values of the I → E coupling strength lead to extensive levels of inhibition, suppressing the neuronal activity during recall. In other words, the activity induced by a recall stimulus will immediately be suppressed by the high level of inhibition, also impeding memory recall. As a result, the level of inhibition has to be within a specific regime to enable learning, consolidation, and successful recall of memories (indicated by the red box Q(10s-recall) ≥ 0.03). This regime is characterized by medium levels of population activity. The functionality is relatively stable given variations in the mean background current I0 (Supplementary Fig. S6), while also the mean firing rate only weakly depends on the mean background current (Supplementary Fig. S3b). Furthermore, the recall quality remains relatively high at low learning and recall stimulus frequencies, except for very low frequencies, where the memory functionality ceases (Supplementary Fig. 7). This resilience is partially due to the number of 25 putative input neurons. In summary, the level of inhibition within the described regime of functionality seems to be sufficient to prevent the overly activation of control neurons, while it remains low enough to allow the desired activation of the non-stimulated neurons within the cell assembly. Please note that such a regime is related to the network state of loosely balanced excitation and inhibition (ref. 54 also see “Discussion” section).

Sufficient memory functionality is found within a certain regime, marked by a red box (Q(10s-recall) ≥ 0.03). Two measures of recall quality are shown: а, б the pattern completion coefficient Q (with nonsignificant values set to zero, see “Methods” section) в, d the mutual information MIν between the neuronal activities in the network during learning and during recall. д, f For comparison, the neuronal activity averaged over the whole excitatory population is shown. All three observables were averaged over ten trials. Параметрлер: nCA = 150, I0 = 0.15 nA.

The regime of memory functionality is the same either 10 s or 8 h after providing the learning stimulus. However, the higher values of Q and MIν after 8 h compared to the 10 s case indicate a positive influence of long-term dynamics on the memory functionality. We further investigate and discuss this result in the next section.

As further parameter, we examined the influence of the size of the cell assembly on the memory functionality (Fig. 5a, b). We controlled the size by varying the number of neurons being the subgroup that is stimulated by the learning stimulus. Following our definition of memory functionality, requiring that the coefficient Q ≥ 0.03, we found that learning and recall is only possible if the cell assembly is large enough. In the following, we will focus on a particular set of parameter values for the inhibition (wie/h0 = 4, wіі/h0 = 4). All derived conclusions apply to all sets within the specific regime of inhibition discussed before (red box in Fig. 4). For small cell assemblies (here

100 neurons), the group of neurons is too small to exhibit functional pattern completion (threshold indicated by the dotted red line in Fig. 5a, b). For large cell assemblies (here >500 neurons), the activity of the cell assembly becomes self-sustained. This means that after learning the neurons within the cell assembly stay active, preventing the typical dynamics of memories we are looking for. Moreover, the measures of the recall quality exhibit local maxima. The occurrence of these maxima cannot be explained by the relationship between the mean firing rate and the cell assembly size, because this relationship is strictly monotonic and does not feature any maximum (Supplementary Fig. S3a). Therefore, we reason that the maxima emerge from the additional stimulation by the recall cue. Finally, similar to Fig. 4, the pattern completion coefficient and mutual information become higher 8 h after learning compared to 10 s after learning for a large range of cell assembly sizes, which will be examined further in the next section.

а Pattern completion coefficient 10 s (orange) and 8 h (purple) after learning. The dotted red line indicates the threshold for memory functionality (Q ≥ 0.03). б Mutual information of the neuronal activities 10 s (yellow) and 8 h (green) after learning. в Relative gain in pattern completion coefficient between 10 s and 8 h after learning. d Relative gain in mutual information of the neuronal activities between 10 s and 8 h after learning. аd Averaged over ten trials parameter values: wie/h0 = 4, wіі/h0 = 4. д Relative gain in pattern completion coefficient, f relative gain in mutual information, averaged over the mean gain values (from ten trials) of all inhibition parameter sets that yielded functional memory for the respective cell assembly size (i.e., the sets with Q(10s-recall) ≥ 0.03, for size 150 cf. the red boxes in Fig. 4). Error bars indicate in а, б, the standard deviation across ten trials, in в, d, the error propagated from а, б, және ішінде д, f, the error propagated from the standard deviations (from ten trials) of the functional parameter sets.

Consolidation improves memory recall

Comparing the recall quality of the cell assembly 10 s after learning with the recall quality 8 h after learning for different paradigms (Figs. 4 and 5a, b), we found that 8 h after learning the system generally exhibits an improved recall quality. In other words, the specific state of the cell assembly after 8 h, resulting from the interplay between calcium-dependent synaptic plasticity and the STC mechanisms, seems to facilitate recall. To elucidate the magnitude of the improvement effect, we computed the relative gain in recall quality between the state 10 s after learning and the state 8 h after learning, and present results for the particular inhibition setting that we chose before (Fig. 5c, d). It becomes obvious that improvement in recall quality can occur by >200% with respect to the pattern completion coefficient, and by as much as 30% with respect to the mutual information.

To test the robustness of the improvement effect across the specific inhibition regime identified before, we averaged MIν және Q over the range of parameter settings of this regime and calculated the relative gain in recall quality (Fig. 5e, f). For the chosen inhibition setting wie/h0 = 4, wіі/h0 = 4 (Fig. 5c, d), as well as for the averaged results (Fig. 5e, f), we observed a positive gain across all cell assembly sizes. Positive gain means that 8 h after learning the performance was better than 10 s after learning. Thus, for a wide range of parameter settings, the passage of time yields an improvement of the recall quality.

What are the underlying principles that lead to this improvement of the recall quality? We could identify two processes, both being related to the STC mechanisms: an active and a passive improvement.

The active improvement is related to the dynamics of the early-phase weights. The recall stimulus provided 10 s after learning only leads to minor variations of the average early-phase weight in the cell assembly (dashed red line at “R” in Fig. 6a). By contrast, 8 h after learning the recall stimulus triggers a substantial increase of the average early-phase weight which in turn results in a stronger total synaptic weight (dashed red and orange line at “R” in Fig. 6b). Thus, 8 h after learning the average total synaptic weight of the cell assembly increases during the recall, which improves the recall performance (Fig. 5). By comparing the state of the neural network between both time points, we find that the average early-phase weight before the 10s-recall resides on a much higher level than before the 8h-recall (Fig. 6c). This difference in early-phase weight before recall stimulation could explain the different dynamics of the early-phase weights during the recall. Considering the mathematical formulation of the model, one can see that the change of the early-phase weight depends on the distance of the actual early-phase weight h from its initial or equilibrium value h0. Hence, larger changes occur if the early-phase weight is closer to the equilibrium state, while the changes remain smaller if the early-phase weight is close to its maximum value. Thus, the learning stimulus “pushes” the early-phase synaptic weight into a regime in which the subsequent recall cannot trigger further strengthening. However, with the passage of time the early-phase weight decays (while the late-phase weight increases) until it reaches the vicinity of its initial value (Fig. 6b, c). In this regime, a recall stimulus can again trigger an increase of the early-phase weight, supporting pattern completion. The detailed weight distributions for all cases presented in Fig. 6c and additional data revealing the weights between subpopulations of the network are shown in Supplementary Figs. S4 and S5. To further scrutinize the relation between the early-phase dynamics during recall and the improved recall quality, we performed simulations in which we switched off or blocked early-phase plasticity after learning. Comparing the resulting recall performances with the simulations with early-phase plasticity (Fig. 7), for both measures Q and MIν, we did not find an influence of the blockage during 10s-recall but during 8h-recall. These results further support our finding that the dynamics of the early-phase weights within the cell assembly are one essential part underlying the improvement of the recall quality.

а During the first seconds after the learning stimulus (“L”), the average early-phase weight (red) of the synapses connecting the stimulated neurons increases, while the average late-phase weight remains constant (blue). A recall stimulus (“R”), provided 10 s after the learning stimulus, does not exert a substantial effect on the synaptic weights. б Several hours after learning, the average early-phase weight decays, while the late-phase increases such that the average total synaptic weight remains on a high level. Providing a recall stimulus 8 h after learning triggers an increase of the average early-phase weight and, thus, of the total synaptic weight. а, б Averaged over ten trials the error bands (representing the standard deviation) are too small to be visible. в Mean early- and late-phase weights within the assembly and within the non-assembly (control) population immediately before and immediately after the 10s and 8h-recall. A.i. active improvement component (difference between solid blue and blue hatches) P.i. passive improvement component (difference between orange grating and blue hatches). Data from one sample network. Error bars show the standard deviation across the subpopulation. See Supplementary Figs. S4 and S5 for detailed distributions of the underlying data. Parameter setting: wie/h0 = 4, wіі/h0 = 4, nCA = 150.

The effect of early-phase synaptic plasticity on the total improvement is significant (compare 8h-recall with 8h-recall no pl.: A.i. active improvement), but it does not cover the complete level of improvement (compare 10s-recall with 8-h recall no pl.: P.i. passive improvement). а Pattern completion coefficient Q б mutual information MIν және в relative gain in Q and MIν from 10s-recall to 8h-recall. All observables averaged across ten trials. Error bars indicate standard deviation across the ten trials in а, б and the propagated error in в. Parameter setting: wie/h0 = 4, wіі/h0 = 4, nCA = 350 (value of the maximum in Fig. 5c, d).

The other part of the improvement of the recall quality is related to the dynamics of the late-phase weights within the cell assembly. We refer to this part as passive improvement. As expected, 8 h after learning the STC mechanisms yield a decrease of the average early-phase weight (red line in Fig. 6b) accompanied by an increase of the average late-phase synaptic weight in the assembly (blue line) that indicates the process of synaptic consolidation. However, if we compare the average total synaptic weight within the assembly before the 10s-recall with the one before the 8h-recall (Fig. 6), we identify an increase that suggests a second component underlying the improvement of recall quality. This is also indicated by the relative gain in Q and MIν without early-phase plasticity (Fig. 7). Hence, although the dynamics of the early-phase weights (active improvement) explains the gain in recall quality to a large extent, there is a remaining part that is related to the dynamics of the late-phase weights (passive improvement).

Parameter dependency of the passive improvement

We have found that the mean total weight of a cell assembly can increase over time, and refer to this phenomenon as passive improvement (cf. Fig. 6c). This effect is elicited by the mechanisms of STC and occurs if the mean normalized late-phase weight ( ildecdot _<0>) after 8 h becomes higher than the mean early-phase weight ( ilde) after learning. To investigate and predict the circumstances under which this effect occurs, namely, different settings of late-phase-related constants, we considered an analytical approach that we present in the following.

To investigate the parameter dependency of consolidation and improvement of a cell assembly, we analytically solve the linear first-order differential equation describing the dynamics of late-phase LTP (cf. Eq. (14)) with a variable coefficient introduced by the time-dependent amount of proteins (Eq. (15)). Since L-LTP is vastly predominant between cell assembly neurons, we neglect here the L-LTD dynamics.

Thus, the analytical expression for the mean late-phase weight after time т after learning in the case of persistent tags and protein synthesis is:

depending on the protein time constant τб, the late-phase time constant τz, the initial protein amount б0, the initial late-phase weight z0, and the protein synthesis rate α. Note that this equation only holds if tags have been set and as long as they have not vanished, which we will address later. This solution can be further simplified under the condition that the initial late-phase weight z0 and the initial protein amount б0 are zero. The mean increase in late-phase weight due to the STC mechanisms is then:

For Eq. (2), we considered that the synapses within the cell assembly are always tagged, triggering changes of the late-phase weights. However, after learning the early-phase weight decays (Fig. 6b) and falls at a certain point in time below the tag-sufficient threshold. Thus, first, we have to calculate the decay of the mean early-phase weight and, then, use it to determine at what time the tag will have vanished. The average decaying early-phase weight follows

depending on the mean early-phase weight after learning ( ilde) , the time after learning тәл, the initial weight h0, and the early-phase time constant τh. The time тәл is a time after learning (for instance, 10 s) at which ( ilde) , the mean learning-induced increase in early-phase weight, is measured. Setting hd(т) to the value of the tagging threshold θтег + h0 yields the point in time ттег at which the synaptic tags will have vanished on average:

The synaptic tags typically vanish before the synthesis of new proteins stops and, thus, ттег determines the end of late-phase changes, such that the average late-phase weight is described by

Hence, for parameter sets yielding ттег < 8 h (cf. Eq. (4)), the mean late-phase weight before the 8h-recall is the same as by the time the tags vanished (see also Fig. 6b, blue line):

In Fig. 8a, we plot the mean weights within the cell assembly, using our numerical results for early-phase LTP during learning and recall to compute the late phase via the analytical function in Eq. (5) and the decay of the early-phase weight as detailed in Eq. (3). As expected, we find that this analytical approach predicts very well the mean weight dynamics of our numerical simulations (dashed gray line in Fig. 8a, cf. Fig. 6b).

а The early-phase values immediately after learning (“L”) and after recall (“R”) were taken from the average over numerical simulations (Fig. 6b) and inserted into the analytical equations for the late-phase dynamics (Eq. (5)) and the early-phase decay (Eq. (3)). The curves are in very good match with the simulated results, the total weight of which is shown here for comparison by the dashed gray line (cf. Fig. 6b). б, в Varying the time constants for late-phase dynamics τz and protein amount τб (б), as well as the protein synthesis rate α (в), shows that for slower time scales and lower synthesis rate, the passive weight change becomes negative, i.e., there is a passive deterioration instead of improvement. The black separatrix line demarcates the two regimes of improvement and deterioration. The red boxes indicate the parameter values used in our numerical studies.

When we compare the mean total weight 8 h after learning w(т = 8 h) with the mean total weight 10 s after learning w(т = 10 s), we obtain an expression for the passive weight change realized by the STC mechanisms, thus, of the passive improvement:

If Δw > 0, the system shows a passive improvement with the passage of time, which is given for a wide range of parameter values. For instance, by considering different values of the protein synthesis parameters, namely the time constant of the protein amount τб (Fig. 8b) and protein synthesis rate α (Fig. 8c), depending on the time scale of the late-phase dynamics τz, we can determine the influence of protein synthesis on the passive improvement. We find that, if the protein time scale becomes too high or the synthesis rate becomes too low, the passive weight change switches from improvement to deterioration. However, the protein dynamics can be much slower than in our numerical simulations (red box) and still the STC mechanisms yield an improvement. For the protein synthesis rate, there is just as well a wide range of values that gives rise to improvement. Thus, the encountered improvement effect is robust to parameter variations.

Our analytical results lead to the following predictions: if the time scale of the protein dynamics is manipulated, the resulting memory behavior should switch between passive improvement and deterioration. In addition, manipulating the speed of signaling cascades that are involved in late-phase LTP should have a similar effect. Taking this into account, our predictions can be useful to narrow down the set of possible proteins and processes involved in STC.

Intermediate recall further amplifies memory improvement

There are several psychological studies that investigate hypermnesia/improvement by considering the memory strength after multiple recalls 55,56,57 . Therefore, we also investigated the impact of an intermediate recall on the memory dynamics. For this, we computed the gain in the pattern completion coefficient Q and in the mutual information MIν between 10s-recall and 8h-recall after applying an additional, intermediate recall stimulus to randomly drawn neurons.

We varied the time of occurrence of this intermediate stimulus (Fig. 9). The gain in recall quality for early intermediate recall (minutes after learning) shows little difference to the gain without intermediate recall (data point at time zero). For late intermediate recall, the gain reaches values that are much higher compared to the case without intermediate recall. Hence, additional recall improves the recall quality even further, which is consistent with the experimental findings 55,56,57 .

а Gain in pattern completion coefficient Q б gain in mutual information MIν. Parameter values: wie/h0 = 4, wіі/h0 = 4, nCA = 150. Averaged over ten trials. Error bars indicate the error propagated from the standard deviations across ten trials for both 10s-recall and 8h-recall. The data points at time zero show the case without intermediate recall (as in Fig. 5c, d).


Ғылым

Engineering is the discipline of design and construction of mechanical devices, equipment, structures and public works systems. Topics include aircraft technologies, buildings, bridges, robotics and heavy machinery.

Blocky and Raw: Is Brutalism Architecture Making a Comeback?

Crumple Theory: We Can Learn a Lot From How Paper Crumples

Vietnam's Rong Dragon Bridge Actually Breathes Fire

The Lost Art of True Damascus Steel

Environmental Science

The environment is truly a thing of beauty and should be protected whenever possible. What can we do to save the environment, and what new technology is available to help us?

How the Mohs Scale Ranks Hardness

Malachite Is the Gorgeous Green Gemstone Cleopatra Wore

Tanzanite Is Africa's Real Blue Diamond

France's Mysterious Fosse Dionne Spring Stubbornly Keeps Its Secrets

Forces of Nature

We see the destruction that the Earth can unleash in the news on a regular basis. Here you can learn about hurricanes, tornadoes, earthquakes and other forces of nature.

Why the Mount Nyiragongo Volcano in the Congo Is so Dangerous

Here's How Scientists Predict the Next Hurricane Season

What's the Coldest Place on Earth?

Scientists Detected a Space Hurricane for the First Time. What's That?

Innovation

Do you know how common everyday items, such as mirrors, fireworks or sunglasses work? This collection of Innovation articles explores the workings of objects you may come into contact with on a regular basis.

Graphene: 200 Times Stronger Than Steel, 1,000 Times Lighter Than Paper

Jerry Lawson Forever Changed the Video Game Industry

How Hollywood Screen Siren Hedy Lamarr Helped Pioneer WiFi and GPS

Video Software System Syncs Lips to Other Languages

Life Science

From the smallest microbe to the largest mammal, Life Science explores the origins, evolution and expansion of life in all its forms. Explore a wide range of topics from biology to genetics and evolution.

Batesian Mimicry: How Copycats Protect Themselves

Brainless, Footless Slime Molds Are Weirdly Intelligent and Mobile

What Is the Marshmallow Test and Can Animals Pass It?

How Bad Is Black Mold, Really?

Әскери

Explore the weapons and combat systems used by the armed services. A broad range of topics in the Military Channel includes tanks, aircraft, biological warfare and stealth technologies.

What Are the Mysterious 'Havana Syndrome' Attacks in D.C.?

How Israel's Iron Dome Defense System Works

Tsar Bomba: The Most Powerful Nuclear Weapon Ever Built

How You Can Help Veterans Every Day

Physical Science

Physical science is the study of the physical world around you. Learn about everything from electricity to magnetism in this section.

A Kid-friendly Introduction to Magnets and Magnetism

National Chlorine Shortage Could Spoil the U.S. Summer

Gravitational Constant Is the "G" in Newton's Law of Universal Gravitation

How to Use the Unit Circle in Trig

Science Dictionary

Do you know what a meteor is, or what scientists mean when they are talking about cryogenics? Our collection of science terms explains the meaning of some of the most common scientific ideas.

5 Facts About Marie Curie and the Winningest Nobel Prize Family in History

What Is Planck's Constant, and Why Does the Universe Depend on It?

Can You Nominate Yourself for a Nobel Prize?

Science Vs. Миф

Are vampires real? What is an out-of-body experience? Are crop circles proof that aliens exist? HowStuffWorks explores what is real and what is urban legend with this collection of Science Versus Myth articles.

Are Jackalopes Really Roaming the State of Wyoming?

Astral Projection: An Intentional Out-of-body Experience

Are Chewbacca and Bigfoot Related?

What's the Difference Between Sasquatch and Bigfoot?

Ғарыш

Explore the vast reaches of space and mankind’s continuing efforts to conquer the stars, including theories such as the Big Bang, the International Space Station, plus what the future holds for space travel and exploration.

4 Ways to Experience Outer Space Right Here on Earth

Here's Why NASA Is Returning to Venus After 40 Years

Are Pentagon-confirmed UFOs a National Security Threat?

NASA Moon Trees Still Stand as Testament to Apollo 14

Transportation

Many of us take public transportation or fly in airplanes on a regular basis, but have you ever wondered how all of these things work? This collection of transportation articles help explain how people get from place to place.


4 Жауап 4

"But a itself is not pointing to another region of memory, it IS the region of memory itself.

"So when the compiler converts it to a pointer, does it save it (like p ) somewhere in memory or it's an implicit conversion?"

It is an implicit conversion. The compiler does not implement the creation of a separate pointer object in memory (which you can f.e. assign in any manner with a different memory address) to hold the address of the first element.

The standard states (emphasize mine):

"Except when it is the operand of the sizeof operator, or the unary & operator, or is a string literal used to initialize an array, an expression that has type "array of type" is converted to an expression with type "pointer to type" that points to the initial element of the array object and is not an lvalue. If the array object has register storage class, the behavior is undefined."

Source: ISO/IEC 9899:2018 (C18), 6.3.2.1/4

The array is converted to an expression of pointer type, it is not an lvalue .

The compiler just evaluates a to &a[0] (pointer to a[0] ).

"I understand that array names are converted to pointers."

An array does not always convert to a pointer to its first element. Look at the first part of the quote above. F.e. when used as &a , a does not decay to a pointer to its first element. Rather it gains a pointer to the whole array int (*)[3] .

A value is an abstract concept—it is some meaning, often mathematical. Numbers have values like 4, 19.5, or −3. Addresses have values that are locations in memory. Structures have values that are the values of their members considered as an aggregate.

Values can be used in expressions, such as 3 + 4*5 . When values are used in expressions, they do not have any memory locations in the computing model that C uses. This includes values that are addresses, such as &x in &x + 3 .

Objects are regions of memory whose contents can represent values. The declaration int *p = &x defines p to be an object. Memory is reserved for it, and it is assigned the value &x .

For an array declared with int a[10] , a is an object it is all the memory reserved for 10 int elements.

When a is used in an expression, other than as the operand of sizeof or unary & , the a used in the expression is automatically converted to the address of its first element, &a[0] . This is a value. No memory is reserved for it it is not an object. It may be used in expressions as a value without any memory ever being reserved for it. Note that the actual a is not converted in any way when we say a is converted to a pointer, we mean only that an address is produced for use in the expression.

All of the above describes semantics in the computing model C uses, which is that of some abstract computer. In practice, when a compiler works with expressions, it often uses processor registers to manipulate the values in those expressions. Processor registers are a form of memory (they are things in a device that retain values), but they are not the “main memory” we often mean when we speak of “memory” without qualification. However, a compiler may also not have the values in any memory at all because it calculates the expression in part or in full during compilation, so the expression that is actually computed when the program is executing might not include all the values that are nominally in the expression as it is written in C. And a compiler might also have the values in main memory because computing a complicated expression might overflow what is feasible in the processor registers, so that parts of the expression have to be temporarily stored in main memory (often on a hardware stack).


6 CONCLUSIONS

A quantum computer can store and manipulate states which, if represented classically, would correspond to vast amounts of information, and execute some algorithms that are exponentially faster than any classical alternative. The potential of even small quantum computers to outperform the best supercomputers on certain tasks may prove transformative to computational biology, promising to make impossible problems difficult, and difficult problems routine. Early quantum processors that can solve useful problems are expected to arise within the next decade. Understanding what quantum computers can and cannot do is therefore a priority for every computational scientist. In this review, we have attempted to give an overview of the technology that may soon revolutionize computational biology. Although we have been unable to cover every topic, we have introduced the principles of quantum information processing and discussed three areas of importance.

Although we are just entering the era of practical quantum computation, it is already possible to glimpse an emerging quantum computational biology within the next decades [ 29 ]. We hope that this review will arouse the interest of the computational biologist in the technologies that may soon disrupt their field, and attract the quantum information practitioner to the fertile field of computational biology, from where many meaningful applications are expected to arise.


10.1.2. Queries, Keys, and Values¶

Inspired by the nonvolitional and volitional attention cues that explain the attentional deployment, in the following we will describe a framework for designing attention mechanisms by incorporating these two attention cues.

To begin with, consider the simpler case where only nonvolitional cues are available. To bias selection over sensory inputs, we can simply use a parameterized fully-connected layer or even non-parameterized max or average pooling.

Therefore, what sets attention mechanisms apart from those fully-connected layers or pooling layers is the inclusion of the volitional cues. In the context of attention mechanisms, we refer to volitional cues as queries. Given any query, attention mechanisms bias selection over sensory inputs (e.g., intermediate feature representations) via attention pooling. These sensory inputs are called құндылықтар in the context of attention mechanisms. More generally, every value is paired with a key, which can be thought of the nonvolitional cue of that sensory input. As shown in fig_qkv , we can design attention pooling so that the given query (volitional cue) can interact with keys (nonvolitional cues), which guides bias selection over values (sensory inputs).

Note that there are many alternatives for the design of attention mechanisms. For instance, we can design a non-differentiable attention model that can be trained using reinforcement learning methods [Mnih.Heess.Graves.ea.2014] . Given the dominance of the framework in fig_qkv , models under this framework will be the center of our attention in this chapter.