+تېما يوللاش
all_kiss يوللانغان ۋاقتى:2019-9-17 02:02 825 قېتىم كۆرۈلدى 3 ئىنكاس يېزىلدى
مەلۇم قەۋەتكە يۆتكىلىش
خۇاۋېي AI ئارقىلىق شېئىر يېزىپ چىقتى، ZAO بولسا AI ئارقىلىق چىراي ئالماشتۇردى، AI دەۋرىدە ئىنسانلار زادى نەگە بېرىپ نەدە تۇرىدۇ ؟
ئىككى كۈندىن بۇيان، خۇاۋېينىڭ AI شائىرى« مۇزىكا سارىيى» ئاز بولمىغان قىزغىنلىقلارنى قوزغىدى، ئابونتلار خۇاۋېينىڭ بۇ AI ئۇسۇلى ئارقىلىق، ئوخشىمىغان ئۇسلۇبتىكى قەدىمىي شېئىر، بەش سۆزلۈك، يەتتە سۆزلۈك، رۇبائىي ھاسىل قىلالايدۇ ، ھەم ئوخشاش بولمىغان ئۇسلۇب تاللىيالايدۇ.  بۇ قەدىمىي شېئىرلار قاپىيەگە ماس كېلىدۇ، ئۇنىڭ ئۈستىگە بىر خىل مەنىسى بار، ئەگەر سىزگە بۇنى AI ھاسىل قىلغانلىقىنى ئېيتىپ بەرمىسە، سىز بەلكىم بۇنى قەدىمكى زاماندىكى داڭلىق شائىرلارنىڭ ئەسىرى دەپ قېلىشىڭىز مۇمكىن.
图片1.jpg
پەقەت ئۈندىدار ئارقىلىق كىچىك ئەپچاق «EI体验空间»  نى ئىزدەپ، ئۇنىڭ ئىچىدىن «乐府作诗» نى تېپىپ ئاچقاندىن كېيىن ، ئىشلەتمەكچى بولغان تېمىنى كىرگۈزۈپ «شېئىر يېزىشنى باشلاش» نى چەكسىڭىز،  AI (سۈنئىي ئەقىل) شېئىردىن بىرنى يېزىپ بېرىدۇ.
图片2.jpg
خۇاۋېينىڭ بۇ شېئىردا AI ئىشلىتىلگەن، يەنى OpenAI ئوتتۇرىغا قويغان ئالدىن مەشىق قىلغان تەبىئىي تىل مودېلى (Generative Pre-trained LanguageMode l) بولۇپ، قىسقارتىلىپ GPT دەپ ئاتىلىدۇ.  بۇ يىل 6-ئايدا، خۇاۋېي Noah's Ark تەجرىبىخانىسىدا GPT مودېلى ئارقىلىق جۇڭگو قەدىمكى شېئىرلىرىنى ئىجاد قىلىش ئىلمىي ماقالىسى ئېلان قىلىندى، «乐府作诗» AI نىڭ ئەمەلگە ئاشۇرۇش پىرىنسىپى دەل بۇ ئىلمىي ماقالىدىن كەلگەن.
图片3.jpg
OpenAI بولسا AI تېخنىكىسىنى تەتقىق قىلىدىغان پايدا ئالمايدىغان تەشكىلات بولۇپ، 2015-يىلىنىڭ ئاخىرىدا قۇرۇلغان، باش شىتابى ئامېرىكا سان فرانسىسكوغا جايلاشقان. ئۇنىڭ ئارقىسىدىكى قۇرغۇچىسى بولسا « پولات پالۋان» ئېلون ماسك بولۇپ، ئۇ ۋە يەنە بىر قۇرغۇچىسى سام ئاۋتىمەن ئومۇميۈزلۈك سۈنئىي ئەقلىي ئىقتىدار يوشۇرۇن خەۋپىدىن ئەندىشە قىلىپ، بۇ تەشكىلاتنى قۇرۇشنى قارار قىلغان.  
پەقەت خۇاۋېيلا GPT مودېلىنى ئىشلىتىپلا قالماي، OpenAI ئۆزىمۇ GPT مودېلىنى ئىشلىتىدۇ، ھەمدە ئۇلار يەنە بىر قىسىم« چوڭ خەۋەر» لەرنى بەرپا قىلدى . يېقىندا، « ماسساچۇسېتس تېخنولوگىيە پەن-تېخنىكا ئوبزورى» دە بىر پارچە خەۋەر ئېلان قىلىنغان بولۇپ ، OpenAI ئۇلارغا ساختا خەۋەر ئىشلەپچىقىرىدىغان AI سىستېمىسى __ fake-news-spewing مەشىقى ئېلىپ بارغان، يەنى 40 GBلىق ئېنتېرنىت يېزىق ماتىرياللىرىنى يەمچۈك قىلغاندىن كېيىن، بۇ AI بىر پارچە كېننىدى زۇڭتۇڭنىڭ نۇتۇقىنى ئويدۇرۇپ چىقارغان، بۇ نۇتۇقنىڭ سۆزلىرى قارىماققا راستىنلا كېننېدى زۇڭتۇڭنىڭ ئېغىزىدىن چىققانغا ئوخشاپ كىتىدۇ.  بۇ ساختا خەۋەر سېستىمىسىگە ئىشلىتىلگىنى دەل GPT نىڭ دەرىجىسى ئۆستۈرۈلگەن نۇسخىسى GPT-2.

图片4.jpg

AI دۇنيانى ئەمەلىيەتكە ئۇيغۇن بولمايدىغان قىلىپ ئۆزگەرتتى!
ئەمەلىيەتتە بۇ يىل 2-ئايدا، OpenAI ئۇلارنىڭ GPT-2 مودېلىنى ئېلان قىلدى. ئېنتېرنېتتىكى نۇرغۇنلىغان تېكىست يازمىچە ماتىرياللار ئارقىلىق مەشىق قىلغاندىن كېيىن، بۇ AI ھېسابلاش ئۇسۇلى تېكىست تەرجىمە قىلالايدۇ، سوئاللارغا جاۋاب بېرەلەيدۇ ۋە باشقا پايدىلىق ۋەزىپىلەرنى ئىجرا قىلالايدۇ.  ئۇلار ھەتتا بۇ ھېسابلاش ئۇسۇلى ئارقىلىق روسىيەنىڭ ئامېرىكىغا جەڭ ئېلان قىلغانلىق ساختا خەۋىرىنى ھاسىل قىلغان.  

图片5.jpg

بۇ خىل AI سىستېمىسى ناھايىتى ئاسانلا ئادەمنى ئەنسىز خىياللارغا سېلىپ قويىدۇ ، ئەگەر بىرەرسى AI نى ئىشلىتىپ كۆپ مىقداردا ئىغۋا تارقاتسا قانداق قىلىش كېرەك؟  شۇنى بىلىش كېرەككى، ھەممە ئادەم ئۆز ئالدىغا تاراتقۇ بولغان ئالاقە تورى دەۋرىدە، ئىغۋاغا رەددىيە بېرىش بىر تۈرلۈك مۈشكۈل ۋەزىپە بولۇپ قالدى، بىر پىتنە-ئىغۋا ناھايىتى ئاسانلا كەڭ تارقىلىپ كېتىدۇ، لېكىن رەددىيە بېرىدىغان ئۇچۇرلارنىڭ تارقىلىش ئۈنۈمى بۇنچىلىك يۇقىرى ئەمەس. ئەگەر كۆپ مىقداردا ئۆسەك سۆزلەر پەيدا بولۇپلا قالسا، رەددىيە بېرىشنى دېمەيلا قويايلى ، پەرق ئېتىشمۇ ئىنتايىن قىيىن بىر ئىش بولۇپ قالىدۇ.  ئۇنىڭ ئۈستىگە، ھازىرچە تېخى AI ئارقىلىق پەرقلەندۈرۈشنى ئەمەلگە ئاشۇرغىلى بولىدىغان ئۈنۈملۈك بىر ھېسابلاش ئۇسۇلىمۇ بەرپا بولغىنى يوق.  قالايمىقان ئىشلىتىشتىن ساقلىنىش ئۈچۈن، OpenAI مۇ تېخى بۇ خىل ھېسابلاش ئۇسۇلىنى تولۇق ئېچىۋەتمىدى.  
AI نىڭ« ئىجادىي كۈچى» بارغانسېرى كۈچىيىپ، يالغاننى راست قىلىپ كۆرسىتىدىغان يالغان خەۋەرلەرنى ياساپلا قالماي، يەنە ئەسلا مەۋجۇت بولمىغان سۈرەت ۋە ۋىدېئولارنىمۇ ياسىيالايدىغان بولدى. نەچچە كۈننىڭ ئالدىدا، ۋېدىئولۇق چىراي ئالماشتۇرۇدىغان AppZAO دوستلار چەمبىرىكىدە بىر مەھەل قىزىپ كەتتى، ئابونتلار پەقەت ZAO نى چۈشۈرۈپ قاچىلاپ، بىر پارچە رەسىمنى يوللىسىلا، سۇپا تەمىنلىگەن ھەر خىل قىسقا فىلىملەردىكى چولپانلارنىڭ يۈزىنى ئۆز ئورنىغا ئالماشتۇرالايدۇ. لېكىن كېيىن بۇ ئەپ خېرىدارلار كېلىشىمى، شەخسىي سىر قاتارلىق مەسىلىلەر سەۋەبىدىن تالاش-تارتىش پەيدا قىلدى ۋە ئۈندىدار تەرىپىدىن پىچەتلەندى، ھەمدە سانائەت ۋە ئۇچۇرلاشتۇرۇش مىنىستىرلىقى بىلەن سۆھبەتلەشتى.  ZAO مۇ ئابونت كېلىشىمىگە تۈزىتىش كىرگۈزدى ھەمدە ئاشكارا كەچۈرۈم سورىدى.  
图片6.jpg
چوڭقۇرلاپ ئۆگىنىش ئاساسىدىكى AI يۈز ئالماشتۇرۇش تېخنىكىسى DeepFake خېلى بۇرۇنلا بارلىققا كەلگەن، بۇ خىل تېخنىكا ھازىر ئاللىقاچان ئېچىۋىتىلىپ، نۇرغۇن يۇمشاق دېتاللار ۋە ئادەتتىكى ئابونتلار بۇ تېخنىكىنى ئىشلىتىپ، پەقەت ئاددىيغىنە نەچچە قەدەم بىلەنلا، رەسىم ياكى كۆرۈنمە چاستوتىدىكى يۈزىنى ئۆزى ياخشى كۆرىدىغان ھەرقانداق ئادەمگە ئالماشتۇرغىلى بولىدۇ.
图片7.jpg
DepFake نىڭ ئارقىسىدا ئىشلەتكىنى بولسا سۈنئىي ئەقلىي ئىقتىدار ھېسابلاش ئۇسۇلى GAN (قارشىلىشىش تورى ھاسىل قىلىدۇ) بولۇپ ، بۇ ھېسابلاش ئۇسۇلى ئاددىي قىلىپ ئېيتقاندا، ئۆز ئارا قارشىلىشىدىغان ئىككى سىستېما ئىشلىتىدۇ ، بىر سىستېما بولسا ساختا سانلىق مەلۇمات ھاسىل قىلىدىغان تور، يەنە بىرى بولسا سانلىق مەلۇماتلارنىڭ راست-يالغانلىقىنى پەرق ئېتىش تورى.  ئاندىن ھاسىل قىلىش تورى ئارقىلىق يوشۇرۇن بوشلۇق (latentspace) دىن ئىختىيارىي ئەۋرىشكە ئېلىپ كىرگۈزۈش قىلىپ، چىقىرىش نەتىجىسىنى ئامال بار مەشىق مەركەزلەشكەن ھەقىقىي ئەۋرىشكىگە تەقلىد قىلىدۇ.  پەرق ئېتىش تورى بولسا بۇ نەتىجىلەرنى پەرق ئېتىپ، ھاسىل بولغان چىقىرىشنى ھەقىقىي ئەۋرىشكە ئىچىدە ئىمكانىيەتنىڭ بارىچە پەرق ئېتىدۇ، ھاسىل قىلىش تورى ئىمكانىيەتنىڭ بارىچە پەرق ئىتىش تورىنى ئالدايدۇ.  ئەڭ ئاخىرقى مەقسەت بولسا ھۆكۈم قىلىش تورىنى ھاسىل قىلىش تورىنىڭ چىقىرىش نەتىجىسىنىڭ ھەقىقىي ياكى ئەمەسلىكىگە ھۆكۈم قىلالمايدىغان قىلىش. شۇنداق قىلىپ، GAN ھېسابلاش ئۇسۇلى ئارقىلىق يالغاننى راست قىلىپ كۆرسىتىدىغان سۈرەت، سىن كۆرۈنۈش، ئۈچ ئۆلچەملىك مودېل قاتارلىقلارنى ئىشلەپچىقارغىلى بولىدۇ. بۇ مەزمۇنلار قارشىلىشىش ئارقىلىق، پەرقلەندۈرۈش تورى راست-يالغانلىقىنى پەرق ئىتەلمەيدۇ. بۇ شۇنى چۈشەندۈرىدۇكى، بۇ چوڭقۇرلاپ ئۆگىنىش ئارقىلىق يارىتىلغان مەزمۇنلارنى ئىنسانلار راست-يالغانلىقىنى پەرقلەندۈرەلمەيدۇ، ھەتتا AI مۇ قىلالمايدۇ.
بۇنداق نەتىجە شۇكى، كەلگۈسىدە ئالاقە تورىدا راست-يالغانلىقىنى پەرق ئەتكىلى بولمايدىغان نۇرغۇن سۈرەت ۋە كۆرۈنۈشلەر پەيدا بولىدۇ، ئىلگىرى بىز« كۆز بىلەن كۆرگەن ئەمەلىي» دېگەن سۆز بىلەن بىر ئىشنىڭ راست، يالغانلىقىنى پەرقلەندۈرەلەيتۇق، بىراق، بۇنىڭدىن كېيىن نۇرغۇن سۈرەت ۋە كۆرۈنمە چاستوتىلارغا قارىتا، بىز ئەمدى ئۇلارنىڭ ھەقىقىي ياكى AI تەرىپىدىن ھاسىل قىلىنغانلىقىنى پەرقلەندۈرەلمەيمىز. يەنىمۇ ئىلگىرلىگەن ھالدا، GAN ھېسابلاش ئۇسۇلىنىڭ پرىنسىپىغا ئاساسەن، بۇ مەزمۇنلارنى AI ئىشلىتىپمۇ پەرق ئەتكىلى بولمايدۇ. دېمەك، بىز راست-يالغاننى پەرق ئېتىش تەس بولغان بىر دۇنيادا ياشايمىز.  
ئەمەلىيەتتە AI راستىنلا بىۋاستە ئادەم كۆزىنى ئالدايدىغان سۈرەتلەرنى ھاسىل قىلدى، NVIDIA بۇلتۇر StyleGAN سۈنئىي ئەقلىي ئىقتىدار ھېسابلاش ئۇسۇلىنى يولغا قويدى، بۇ ھېسابلاش ئۇسۇلىنى ئىشلىتىپ ئادەم كۆزىنى ئالدايدىغان ساختا ئادەم يۈزىنى ھاسىل قىلغىلى بولىدۇ. بىر Uberدىن كەلگەن يۇمشاق دېتال ئىنژېنېرى Philip Wang ناھايىتى تېزلا بۇ تېخنىكىنى ئەمەلىيلەشتۈردى، ئۇ ThisPerson Does NotExist. Com نامىدا بىر تور بېكەت قۇرغان بولۇپ، ھەر قېتىم بۇ تور بېكەتنى ئاچقاندا، خالىغانچە بىر پارچە ئادەمنىڭ سۈرىتىنى ھاسىل قىلىدۇ، بۇ كىشىلەرنىڭ چىرايىدا قانداق مەسىلە بارلىقىنى بىلگىلى بولمايدۇ، لېكىن، ئۇلارنىڭ ھەممىسى ھەقىقىي مەۋجۇت ئادەملەر ئەمەس.  

图片8.jpg
ThisPersonDoesNotExist.com دا سۈنئىي ئەقىل خالىغانچە پەيدا قىلغان بىر پارچە رەسىم

دۇنيادا بۇنىڭغا ئوخشاش تېخنىكىلار بارغانسېرى كۆپىيىۋاتىدۇ. يېزىق، سۈرەت، ھەتتا ۋىدېئونىمۇ AI ئارقىلىق بىرىكتۈرۈپ ھاسىل قىلىشتىن باشقا تاۋۇشلارمۇ بۇنىڭ سىرتىدا ئەمەس.  2016-يىلى گوگۇل چوڭقۇرلاپ ئۆگىنىش ئاساسىدا ئىپتىدائىي ئاۋاز چاستوتا ھاسىل قىلىش مودېلى WaveNet نى ئوتتۇرىغا قويغان، بۇ تېخنىكا ئارقىلىق تىل ماتىرىيالى بىلەن يۈكسەك دەرىجىدە ئوخشىشىپ كېتىدىغان تاۋۇش بىرىكتۈرگىلى بولىدۇ. دۆلەت ئىچىدە كېدا شۈنفېي، سوگو، تېڭشۈن قاتارلىق شىركەتلەرمۇ مۇناسىۋەتلىك تەتقىقاتلار بىلەن شۇغۇللىنىۋاتىدۇ، مەسىلەن ھازىر گاۋدې خەرىتىسىدىكى جى لىڭ ھەدە، گودېگاڭلارنىڭ ئاۋازى AI تاۋۇش بىرىكتۈرۈش تېخنىكىسى ئارقىلىق بىرىكتۈرۈلگەن.  
图片9.jpg

كەلگۈسىدە، بىز AI غا قانداق يۈزلىنىمىز ؟
كەلگۈسىدە ، بىز بەلكىم راست-يالغانلىقىنى پەرق ئېتىش تەس بولغان مەسىلىلەرگە دۇچ كىلىشىمىز مۇمكىن، بىر تاسادىپىي خەۋەر بەلكىم AI تەرىپىدىن ھاسىل بولغان بولۇشى مۇمكىن، بىر پارچە سۈرەت، بەلكىم ئۈستىدىكى مەزمۇن ھەقىقىي مەۋجۇت بولۇپ باقمىغان بولۇشى مۇمكىن. بىر كۆرۈنمە چاستوتىدا ئىپادىلەنگەن بارلىق پاكىتلار ئۆزگەرتىلگەن بولۇشىمۇ تامامەن مۇمكىن. سۈنئىي ئەقلىي ئىقتىدار ئەنە شۇنداق كۈچلۈك، ئىنساننى ئالداش بەلكىم ئۇنىڭدىنمۇ ئاسان بولماسلىقى مۇمكىن. بەلكىم ھازىر AI نىڭ تەرەققىياتىنى رەت قىلىشقا ئۈلگۈرەلىشىمىزمۇ مۇمكىن، بولمىسا كېيىنكى ئاپەتنى ھېچكىممۇ ئالدىن پەرەز قىلالمايدۇ.  
تېخنىكىدا ئەسلىدىنلا قىممەت يۆنىلىشى بولمايدۇ، مەيلى پايدىلىق بولسۇن ياكى زىيانلىق بولسۇن، ھەممىسى ئىنسانلارنىڭ ئىشلىتىشىگە باغلىق.  ئەگەر قالايمىقان ئىشلەتكەندە، تېگى يوق ھاڭغا چۈشۈپ كېتىشتىن ساقلانغىلى بولمايدۇ، ئەمما توغرا ئىشلىتىلسە، تېخنىكىنىڭ ئىنسانلارغا ئېلىپ كېلىدىغىنى بەختتۇر. مەسىلەن، ساختا رەسىم ھاسىل قىلىدىغان GAN ھېسابلاش ئۇسۇلى يېقىندا تېببىي دورا تەتقىقاتىغا ئىشلىتىلدى.  
يېقىندا، سۈنئىي ئەقلىي ئىقتىدارلىق دورا تەتقىقات شىركىتى InsilicoMedicine ۋە تورونتو ئۇنىۋېرسىتېتىدىكى ئالىملار ئۆگىنىش تېخنىكىسىنى كۈچەيتىدىغان يېڭى AI سىستېمىسىنى ئىشلىتىپ، بىر نۇقتىنى تاللاشتىن يوشۇرۇن بولغان يېڭى دورا مولىكۇلا نامزاتلىرىنى ھاسىل قىلىشقىچە بولغان جەرياننى پەقەت 21 كۈنگە قىسقارتىپ، ئەنئەنىۋى ئۇسۇلغا قارىغاندا 15 ھەسسە تېزلەتتى.  Insilicoنىڭ ئۇسۇلى GAN (قارشىلىشىش تورى ھاسىل قىلىش) ۋە كۈچەيتىپ ئۆگىنىش ئىككى خىل سۈنئىي ئەقلىي ئىقتىدارنى ئاساس قىلغان بولۇپ، بۇ يەردە GAN ھېسابلاش ئۇسۇلى كېسەل داۋالاپ ئادەم قۇتقۇزۇشتىكى ياخشى ئۇسۇلغا ئايلاندى.  
图片10.jpg
تېخنىكىنى يوقىتىش ئەمەس ياخشىلىققا يۈزلەندۈرۈش
AI نىڭ تەرەققىياتىنى تۇسۇش توسماسلىق مەسىلىسىگە قايتىپ كەلگىنىمىزدە، ئەگەر كەلگۈسىدە AI نىڭ ئاپەت ئېلىپ كېلىشىدىن قورقساق، باشتىلا AI تېخنىكىسىنىڭ تەرەققىياتىنى توسۇش كېرەك، ئۇنداقتا AI ئارقىلىق ئىنسانلارغا بەخت يارىتىشنىڭ ئېھتىماللىقىمۇ يوق بولىدۇ. GAN تېخنىكىسىغا ئوخشاش، ئەگەر بىز ئۇنىڭ راست-يالغاننى پەرق ئېتىش تەس بولغان دۇنيانى ياساپ چىقىشىدىن قورقساق، Insilico  نىڭ 15 ھەسسە ئۈنۈمنى ئۆستۈرىدىغان تېخنىكىمۇ مەۋجۇت بولمايدۇ. بىز ئاپەتكە بارىدىغان دېرىزىنى تاقىدۇق، لېكىن بەخت دەرۋازىسىمۇ شۇ سەۋەبتىن تاقىلىپ قېلىشى مۇمكىن. شۇڭا، ئاكتىپلىق بىلەن تېخنىكىنى ياخشىلىققا يېتەكلەش كېرەك، خۇددى ماخۇاتېڭ« 2019-يىللىق دۇنيا سۈنئىي ئەقلىي ئىقتىدار يىغىنى» دا نۇتۇق سۆزلىگەندە، « پەن-تېخنىكىنى ياخشىلىققا يىتەكلەش» ئارقىلىق AI نى ھەر تەرەپلىمە تۈزەشكە يېتەكلەش كېرەك. تېخنىكا يامان ئىش قىلىشقا ئىشلىتىلگەندە، ئۇنىڭدىن تەشەببۇسكارلىق بىلەن ساقلانغاندىن باشقا، تېخىمۇ ياخشى ئۇسۇل يەنىلا تېخنىكا بىلەن قارشىلىق كۆرسىتىش بولۇشى مۇمكىن.  مەسىلەن، كالىفورنىيە ئۇنىۋېرسىتېتى بېركېلى شۆبە مەكتىپى ۋە جەنۇبىي كالىفورنىيە ئۇنىۋېرسىتېتىنىڭ تەتقىقاتچىلىرى، يېڭى قوراللارنى تەتقىق قىلىپ ساختا رەسىملەرنى پەرق ئېتىۋاتىدۇ. ماسساچۇسېتس شتاتى تەبىئىي پەن ۋە سانائەت پەنلىرى ئىنستىتۇتى-IBMWatson سۈنئىي ئەقلىي ئىقتىدار تەجرىبىخانىسى ۋە خارۋارد ئۇنىۋېرسىتېتىنىڭ تەبىئىي تىلنى بىر تەرەپ قىلىش تەجرىبىخانىسىنىڭ تەتقىقاتچىلىرى OpenAIنىڭ GPT-2 مودېلىغا قارشى تۇرۇش ئۇسۇلىنى تەتقىق قىلىۋاتىدۇ.
AI غا ئوخشاش بۇنداق كۈچلۈك قورالنىڭ ئۆزىلا ئىنتايىن مۇرەككەپ، ياخشىلىققا يىتەكلىسىمۇ، يامانلىق قىلسىمۇ بولىدۇ. بىزنىڭ قىلىشقا تېگىشلىك ئىشىمىز بۇ قورالنى بىزگە تېخىمۇ ياخشى مۇلازىمەت قىلدۇرۇشتۇر، ئەگەر بۇ قورال قالايمىقان ئىشلىتىش خەۋپىگە دۇچ كەلسە، ئەڭ ئاۋال ئويلىنىشقا تېگىشلىك ئىشىمىز، بۇ قۇرالنى بىرتەرەپ قىلىش ئەمەس، بەلكى خەتەرنى بىرتەرەپ قىلىش .  

باھالاش

قاتناشقانلار سانى 1تەجرىبە +30 ئاقچا +30 يىغىش سەۋەبى
alip + 30 + 30

باھا خاتىرىسى

مۇكەممەللىك ئاددىيلىق ئىچىگە يۇشۇرۇنغان بولىدۇ

3ئادەم ئىنكاس يازدى

نەپرەت007 ۋاقتى: 2019-9-17 15:01:24
تەرەققىيات بەك تىز  ئادەملەر يىتىشىپ بولالمىغۇدەك
begtash ۋاقتى: 2019-9-17 22:58:28
شىئىرنى ماشىنا يازسا، ئەسەر ھوقۇقى كىمگە تەۋە بولار ئەمدى؟
Eliyop ۋاقتى: 2019-9-18 17:54:14
شېئرنى ئەقلى ئىقتىدارلىق ماشىنا يازغاندىكىن ئەلۋەتتە ئەسەر ھوقۇقى شۇنىڭغا تەۋە بولىدۇدە. «'پالانى تىپلىق سۇنئى ئەقلى ئىقتىدار ماشىنا يازغان» دەپ ئىلان قىلا.
كەلگۈسىدە ئىنساننى سۇنئى ئەقلى ئىقتىدار ماشىنا ئادەملىرى باقامدۇ تىخى.
كىرگەندىن كېيىن ئىنكاس يازالايسىز كىرىش | ئەزا بولۇش

سەھىپە جۇغلانما قائىدىسى

ئالپ تور بېتىدە قانۇنغا خىلاپ، سىياسى، دىنىي ، مىللەتلەر ئىتتپاقلىقىغا بۇزغۇنچىلىق قىلىش خاراكتىردىكى ، سېرىق، شەھۋانىي مەزمۇندىكى يازمىلار، ئۈن-سىن، رەسىملەر چەكلىندۇ

ئالپ تور بېتىدە ۋە ئالپ ئۈندىدار سالونىدا يوللانغان مەزمۇنلار ئالپ تورىغا تەۋە، رۇخسەتسىز كۆچۈرۈپ تارقىتىشقا بولمايدۇ. كۆچۈرۈپ تارقاتقۇچىلار بايقالسا قانۇنى مەسئۇلىيتى سۈرۈشتۈرۈلدۇ

特别警告:本网站坚决不允许发表违反国家法律法规的、含有分裂煽动内容的、引起民族矛盾的、破坏民族团结的、带有宗教色彩或有色情的文章

帖子、图片、音视频、电影、歌曲等。若发现将IP地址上报相关部门处理,后果自负。注意自我保护,谨防上当受骗

يانفون نۇسخسى|يانفون تېرمىنالى| ئالپ تورى

新公网安备 65292202000103号

备案/许可证号: 新ICP备13002551号-2

Copyright © 2016-2020 aliptori.com.   All Rights Reserved.

快速
回复
返回
列表
返回
顶部