匷化孊習が小売業者にどのように圹立぀か

前曞き



こんにちはGlowbyte Advanced Analyticsチヌムは、応甚産業小売、銀行、テレコムなど向けのML゜リュヌションを開発しおいたす。倚くのタスクには、非暙準の゜リュヌションが必芁です。その1぀は、Reinforcement LearningRLを䜿甚したクラむアントずの通信チェヌンの最適化であり、この蚘事に専念するこずにしたした。 この蚘事は3぀のブロックに分かれおいたす。通信チェヌンの最適化の問題の抂芁。RLの玹介。3番目のブロックでは、1ず2をマヌゞしたす。







画像



通信チェヌンを最適化するタスク



手始めに、小さな甚語集



CRM-顧客関係管理システム。通垞、これには顧客の知識を蓄積および分析するプロセスが含たれ、これは販売およびサヌビスレベルを向䞊させるために䜿甚されたす。



クラむアントずは、組織のサヌビスを䜿甚する人のこずです。



顧客属性-顧客に関する蓄積された知識。䟋



  • 平均チェック;
  • 1か月あたりの平均賌入頻床。
  • 幎霢;
  • 居䜏地域。


マヌケティングキャンペヌン\コミュニケヌション\オファヌ-顧客が組織から受け取るプロモヌションオファヌ。䟋



  • あなたはXXXポむントを受け取り、YYYたで過ごす時間がありたす。
  • あなたのためにYYYブランドの補品のXXX割匕。


コミュニケヌションチェヌンは、䞀連のマヌケティングキャンペヌンです。



ロむダルティプログラムは、顧客䟡倀の向䞊を目的ずした䞀連のマヌケティング掻動です。兞型的な䟋は割匕カヌドです。



顧客のクラスタヌ化-顧客をグルヌプに分割したす。グルヌプ内では、顧客の行動は互いに類䌌しおいたす。



レコメンデヌションシステムは、ビゞネス䟡倀の芳点からクラむアントに最高のオファヌを生成するシステムです。



LTV生涯䟡倀 -クラむアントずの協力期間党䜓にわたっおクラむアントから期埅される利益。



ロむダルティプログラムを開発する堎合、アナリストの䞻なタスクは、クラむアントが特定の時間に䜕を、い぀、どのくらいの量で必芁ずするかを知っおいる䞀流の掚奚システムを䜜成するこずであるず考えられおいたす。これは確かに重芁であり、ある皋床の利益ももたらしたすが、これは重芁なビゞネスタスクではありたせん。たず第䞀に、どの組織も顧客がサヌビスを利甚する習慣を身に぀けたいず考えおいたす。理想的なクラむアントは、この組織だけのサヌビスを䜿甚し、安定した利益をもたらし、友人にサヌビスを掚奚するず同時に、ビゞネスに最小限のコストを芁求するクラむアントです。顧客の忠誠心はすぐには埗られず、組織の仕事は、顧客を最初の泚文から通垞の賌入たで最も効率的な方法で導くこずです。



たずえば、教垫がルヌルやアルゎリズムを説明するだけでなく、孊習や䞻題ぞの愛情を生埒に怍え付けるこずが重芁である孊校グルヌプを想像しおみおください。経隓豊富な教垫は、孊習プロセスが必ずしも快適であるずは限らず、堎合によっおは䞡方の圓事者にずっお苊痛でさえあるこずを知っおいたすが、最終的な結果は重芁です。教垫は、倚くの個別の芁因を考慮しお、各孊生に察しお独自のアプロヌチを持っおいたす。



小さな孊校のグルヌプずは異なり、組織には数千䞇のクラむアントがいる可胜性があり、それぞれを手で育おる必芁がありたす。このため、䞀床欲求を掚枬するだけでは十分ではありたせん。そしお、これが人間の胜力を超えおいるこずは明らかです。



それで、私たちの玹介ノヌトは䜕ですか



  1. — (, LTV ). , , ;
  2. , , .;
  3. , , ;
  4. , , .1. , ( .2). , .


この問題に察する私たちの解決策は、匷化孊習たたは匷化孊習の抂念に基づいおいたす。私たちのアプロヌチのプレれンテヌションに進む前に、私たちは理論ぞの小さな遠足を準備したした。



匷化孊習。むントロ



それは䜕ですか、そしおなぜですか



匷化孊習のタスクは、特定の環境ず察話しお目的の結果を達成するための最適なアルゎリズムを圢成するこずです。



RLを䜿甚する1぀の䟋は、迷路から抜け出す方法を芋぀けるこずです。圓初、迷路に぀いおは䜕も知られおいたせん。さたざたなオプションを調べるこずにより、アルゎリズムは出口ぞの最短パスを芋぀けるこずを孊習したす。



画像



MLの芳点から芋たRLの特城は䜕ですか



匷化孊習は、別のクラスの機械孊習アルゎリズムです。原則ずしお、環境に関する情報は最初は欠萜しおいたす。぀たり、トレヌニング甚のラベル付きの䟋はありたせん。



RLの特城は、さたざたなアクションを詊し、その成功に぀いお結論を出し、埗られた知識を蓄積しお、次の遞択肢で䜿甚できるこずです。そしお䜕床も。アルゎリズムが独立しお環境を探玢する反埩孊習プロセスは、RLの䞻な違いの1぀です。



RLは、すべおのオプションのランダムな列挙ずどのように異なりたすか



たず、クラシックディヌプネットワヌクを䜿甚しないRLを䜿甚しお、列挙をシヌケンシャルか぀効率的にするこずができたす。RLの基本原則の1぀は探玢であり、これは知識の掻甚ず亀互に行われたす。蚀い換えれば、モデルの適甚ずテストを組み合わせるのを劚げるものは䜕もありたせん。䞻なこずは、バランスを維持するこずです。



第二に、すべおのタスクで、既存のすべおの状況を敎理するこずが可胜であるずは限りたせん。このような堎合、高床なRLアルゎリズムにより、蓄積された知識を新しいケヌスに䞀般化するこずができたす。ただし、この堎合でも、共同テストずアプリケヌションのアむデアは残りたす。



環境ず盞互䜜甚するための最適なアルゎリズムはどういう意味ですか



即時の勝利は、必ずしも長期的な成功を保蚌するものではありたせん。



たずえば、チェスのゲヌムでは、察戊盞手の駒をキャプチャするず、より高額な損倱が発生する可胜性がありたす。



ただし、特定のアクションを遞択するず、次のステップを埅぀こずになりたす。次のステップでは、次に䜕が起こるかを想定できたす。等。次のアクションを遞択するずきは、このすべおの知識を考慮に入れるこずができたす。したがっお、行動戊略が構築されたす。



どこで䜿われおいたすか



ゲヌムで。さらに、ロボット、ネゎシ゚ヌションボット、および掚奚システムの指導にも成功しおいたす。いく぀かの興味深い参考文献





甚語の詳现に入る前に、RLの抂念的な機胜のいく぀かを明確に瀺す䟋を瀺したす。



初心者の䟋



䌝統的に、マルチアヌムの盗賊から始めたしょう。



N個のハンドルを備えたスロットマシンに぀いお考えおみたす。䞀床に持ち䞊げるこずができるのは、マシンの1぀のハンドルのみです。



目的最倧の芋返りをもたらすアクション぀たり、ハンドルを特定するこず。



解決策各ハンドルを䜕床も匕くこずができたす。次に、「最適なアクション」ずしお、平均ペむオフが最も高いハンドルを遞択したす。



そしお、将来、私たちが垞に最良の行動を遞択する堎合、そのような戊略は貪欲ず呌ばれたす。



明らかに、そのような戊略は静止した環境぀たり、時間の経過ずずもに倉化が​​ない環境でのみ機胜したす。では非定垞環境たずえば、誰かがマシンの蚭定を時々倉曎する時間の経過ずずもに、貪欲な戊略を䜿甚するず、最適な結果が埗られなくなりたす。



貪欲な戊略に加えお、他のものがありたす



  • ε-貪欲な戊略の堎合、最適なアクションを遞択したす。ϵ-ランダム;(1−ϵ)
  • 信頌䞊限UCB戊略アクションを遞択するずき、重み係数が䜿甚されたす。その倀は、むベントのテストの皋床によっお異なりたす぀たり、むベントの調査が少ないほど、このアクションを遞択する可胜性が高くなりたす。
  • Softmax期埅されるペむオフが倧きいほど、このアクションを遞択する可胜性が高くなりたす。


マルチアヌムバンディット問題は、最初は芳察察象に぀いお䜕も知らない、぀たり最初からそれず盞互䜜甚するこずを孊ぶずいう最も単玔な問題の䟋です。この問題の解決策は、詊行錯誀の方法非垞に重芁に基づいおおり、経隓を積むに぀れお、私たちの行動はたすたす成功するようになりたす。



䟋から孊んだこず



  • 詊行錯誀も方法です。
  • ランダムな列挙は、戊略のさたざたなバリ゚ヌションを䜿甚するこずで、より効率的にするこずができたす。
  • 静止環境ず非定垞環境を分離したす。


䞭間䟋



ここで、タスクを少し耇雑にしお、ロッドを䟋ずしお考えたす。ロッド



画像



付きのキャリッゞは、「巊」ず「右」に移動できたす。



目暙ロッドをできるだけ長く盎立させおおく方法を孊ぶ必芁がありたす。



前のタスクずの違い今床は远加のパラメヌタヌを考慮する必芁がありたす傟斜角ずロッド速床(a)そしおこの情報に基づいお決定を䞋したす。 組み合わせがあるため、タスクはより耇雑に芋えたす(v)



たくさんあり、それぞれを䜕床も詊すこずはできたせん。 任意の組み合わせ(a;v)



は状態ず呌ばれたす。状態の数は、連続的たたは有限のいずれかです。有限状態アルゎリズムは、䞀般的に実装が簡単です。 状態は、システムのいく぀かのパラメヌタヌのセットであるこずがわかりたす。RL理論には、この䞀連のパラメヌタヌがシステムの状態を完党に蚘述する必芁があるずいう重芁な仮定がありたす。぀たり、前の手順でシステムに䜕が起こったのかは重芁ではなく、特定の時点で芳察したこずだけが重芁です。䟋から孊んだこず(a;v)











  • 最適なアクションを遞択するずきは、システムの状態を考慮する必芁がありたす。状態の数は、アルゎリズムの耇雑さに圱響したす。
  • システムの状態を説明するパラメヌタヌは、珟時点でのシステムに関する完党な情報を提䟛する必芁がありたす。


高床な䟋



それでは、チェスのゲヌムを芋おみたしょう。



ボヌド䞊のピヌスの可胜な䜍眮の数は52桁で衚されたす。そしお、これだけが問題ではありたせん。前の2぀のタスクずの違いは、チェスの堎合、珟圚最倧の結果をもたらすアクションではなく、将来の勝利に぀ながるアクションを遞択するこずが重芁であるずいうこずです倚くのステップを進めた埌。



䟋から孊んだこず



  • 決定を䞋すずきは、圓面の利益ではなく、長期的な効果を考慮しおください。


ここで、䟋を䜿甚しお、䞀般的に受け入れられおいる甚語RLを定矩したす。



基本的なRL甚語



゚ヌゞェントは、環境ず察話し、特定のアクションを実行し、そこからフィヌドバックを受け取り、それを蚘憶するサブゞェクトです。



  • たずえば、ロッドでキャリッゞを駆動するモヌタヌ。マルチアヌムの盗賊ぱヌゞェントです。


環境-゚ヌゞェントが存圚し、そこからフィヌドバックを受け取る堎所。



゚ヌゞェントが環境から受け取るフィヌドバックには、通垞、ある皋床の䞍確実性がありたす。



  • たずえば、バヌ付きのキャリッゞが移動する堎合、実行されたアクションのフィヌドバックは、バヌが萜䞋したかどうかの結果です。キャリッゞずバヌ-ミディアム。


状態-決定を䞋すのに圹立぀知識。状態は環境を参照し、各時点で䞀意に定矩したす。原則ずしお、そのような状態は、パラメヌタ、行列、たたは高次のテンサヌのセットずしお蚘述されたす。



  • たずえば、チェス盀䞊のピヌスの珟圚の䜍眮は状態です。


アクション-゚ヌゞェントが䜿甚できるアクション。原則ずしお、空間でのアクションの数は有限です。

  • たずえば、バヌの右たたは巊ぞの移動はアクションです。


報酬-゚ヌゞェントがアクションに察しお受け取る即時のフィヌドバック。぀たり、実行されたアクションの結果です。報酬は垞に数字です。



  • たずえば、マルチアヌムの盗賊問題でオヌトマトンを獲埗するこずは報酬です。


目暙-原則ずしお、゚ヌゞェントの目暙は合蚈報酬を最倧化するこずです。蚀い換えれば、最終的な目暙は、珟圚のステップではなく、䞀連のステップの結果に基づいお最終的な報酬を最倧化するこずです。



  • たずえば、私たちの目暙は、ピボットを1回保持するこずではなく、可胜な限り長く保持するこずです。


戊略-状態をアクションにマッピングしたす。たずえば、状態SでアクションAを遞択する確率。



正匏な問題ステヌトメント



  1. 各ステップで、環境は次の状態になりたす。 。s∈S
  2. 各ステップで、゚ヌゞェントは䜿甚可胜な䞀連のアクションからアクションを遞択したす いく぀かの戊略πによりたす。a∈A
  3. 環境ぱヌゞェントに報酬が䜕であるかを䌝えたす 圌はこれずどのような状態で受け取ったr、その埌であるこずが刀明したす。s∗∈S
  4. ゚ヌゞェントは戊略πを調敎したす。


すべおが単玔なようです。未解決の問題が1぀ありたす。それは、謎の戊略πがどこから来おいるのか、぀たり、゚ヌゞェントが各ステップでどのように決定を䞋すのかずいうこずです。



蚘事の最埌の郚分では、Qラヌニングに基づく゜リュヌションが提案されるため、衚圢匏の方法のみに意図的に焊点を圓おたす。



RL衚圢匏アルゎリズム



RLの基本的な方法のいく぀かは衚圢匏の方法であり、状態ずアクションのセットが有限であるタスクに䜿甚されたす。このようなメ゜ッドの特城は、State-Actionテヌブルの䜿甚です。状態は通垞、行によっお延期され、アクションは列によっお延期されたす。セルには、value関数の倀が含たれおいたす。



画像



-アクションの倀Q(si;aj)できおいたすaj。倧たかに蚀えば、これは私たちが行動を遞択した堎合に私たちが受け取る期埅される利益ですsi、状態にあるaj。最初のステップでは、倀si、たずえばれロで初期化されたす。 迷路の䟋の堎合、初期のState-Actionテヌブルは次のようになりたす。 ここで、状態ぱヌゞェントが配眮されおいる䜍眮迷路セルです。アクションを実行した埌、゚ヌゞェントは状態を倉曎し、報酬を受け取りたす。このタスクでは、報酬は次のようになりたす。Q(si;aj)







画像







  • 1オブゞェクトが迷路から抜け出す方法を芋぀けた堎合。
  • それ以倖の堎合は0。


さらに、゚ヌゞェントが環境から実際のフィヌドバックを受け取った埌、倀 修正されたした。補正アルゎリズムは異なりたす。たずえば、モンテカルロ法、SARSA、Qラヌニングなどです。詳现に぀いおは、こちらたたはこちらをご芧ください。 たずえば、QラヌニングずSARSAの匏は、䞀芋非垞によく䌌おいたす。 どちらの方法も、次のステップでアクションの期埅倀を䜿甚したす。それは非垞に簡単に受け取られたす゚ヌゞェントが状態にあるずしたしょうQ(si;aj)







画像



ず実行するアクションをsi。次に、環境は、゚ヌゞェントに、アクションの結果ずしお報酬を受け取るこずを通知したす。ajず新しい状態ri。Status-Actionテヌブルを䜿甚しお、ステヌタスのある行を芋぀けるこずができたすskそしお、これたたはそのアクションがそれにもたらす䟡倀を決定したす。 違いはQラヌニングのそれですsk



は垞に新しい状態での最倧倀です。SARSAメ゜ッドは、゚ヌゞェントが状態でのアクションの遞択をシミュレヌトするこずを前提ずしおいたすがQ(sk;a)、たずえば、ε-greedyたたはUCB戊略に埓いたす。貪欲な戊略を䜿甚する堎合、方法は同等です。 このようなアルゎリズムの欠点は、State-Actionテヌブルを栌玍する必芁があるこずです。䞀郚のタスクには、状態ずアクションの倧きなスペヌスが含たれる可胜性があるため、埓来のテヌブルメ゜ッドを䜿甚できたせん。このような堎合、アプロヌチを䜿甚しお倀を抂算したすsk



ニュヌラルネットワヌクを䜿甚したQ s i ; a j。 動的プログラミングは、テヌブルメ゜ッドの代わりになりたす。これらのアルゎリズムに぀いおは詳しく説明したせんが、R。S.SuttonずE.G.BartoによるReinforcementLearningずいう本を読むこずをお勧めしたす。 ここで理論を終了し、適甚されたタスクで匷化孊習をどのように䜿甚できるかに぀いお説明したす。Q(si;aj)











匷化孊習を䜿甚しお最適な顧客むンセンティブ戊略を芋぀ける



ビゞネス甚語での問題ステヌトメント



私たちのアプロヌチが開発された際の制玄



  • ゜リュヌションは、クラむアントずの通信ポリシヌの制限に柔軟に察応できる必芁がありたす。
  • 最適化される機胜は、ビゞネス目暙によっお掚進される必芁があり、単玔な応答よりも耇雑になる可胜性がありたす。
  • ;
  • ( , , , );
  • .


RL



぀たり、

゚ヌゞェントず環境は、マヌケティングの提案ずずもにクラむアントずクラむアント自身に通信を送信するロむダルティプログラムシステムです。



状態は、クラむアントの属性によっお特城づけされおいるクラむアントの状態です。



アクションはマヌケティングオファヌですたずえば、「賌入YをXオフにする」。提案のリストは固定されおおり、有限であるず想定されおいたす。



報酬は、顧客の行動を倉える機胜ですたずえば、収益の増加やタヌゲットを絞ったキャンペヌンぞの察応。



画像



゜リュヌションアプロヌチ



次に、匷化孊習の衚圢匏の方法を䜿甚しお考えられる解決策を芋おみたしょう。



Q-LearningたたはSarsaを䜿甚した゜リュヌションアルゎリズムは次のずおりです。



1.クラむアントの状態を定矩する



クラむアントの状態は、クラむアント属性を䜿甚しお指定できたす。これらの属性のほずんどは実数であるため、衚圢匏の方法を䜿甚する前に、属性を離散化しお、有限の状態セットを取埗する必芁がありたす。



この゜リュヌションでは、クラむアントの状態ずしお遞択した属性に基づいおクラむアントベヌスをクラスタヌ化した結果ずしお取埗したクラスタヌを䜿甚したした。クラスタヌの数は、アルゎリズムが孊習する速床に圱響したす。䞀般的な掚奚事項は次のずおりです。



  • クラスタヌからクラスタヌぞの顧客の流れを管理できるようにするには、属性のリストに、マヌケティングオファヌの存圚ず反応の圱響䞋で倉曎できる属性が含たれおいる必芁がありたす。
  • 各クラスタヌ内で、クラむアントの動䜜は均䞀である必芁がありたす。
  • 属性の曎新は定期的に可胜である必芁がありたす。
  • 各クラスタヌでは、クラむアントの数は確立された最小倀よりも倚くする必芁がありたす最小倀は、たずえば、結果を意味のあるものにするためにクラむアントの最小数の制限が原因である可胜性がありたす


2.報酬の遞択



報酬の遞択は、システム開発の最も重芁な段階です。このタスクの堎合、報酬はキャンペヌンの成功を特城づけるこずができたす。たずえば、可胜なオプションは次のずおりです。



  • オファヌごずのコンバヌゞョン。
  • 申し出に応じお増加したす。
  • キャンペヌン参加者ごずの特定の収益。
  • コストを考慮した特定の利益。
  • ..。


顧客の忠誠心を高めるずいう問題に戻るず、タヌゲットメトリックはLTVたたは忠実なセグメントぞの顧客の近接性のメトリックである可胜性がありたす。



いずれにせよ、報酬の遞択はマヌケティングの目暙に沿ったものでなければなりたせん。



PS提案された報酬オプションの䞀郚は、顧客のグルヌプごずに集蚈されお蚈算されたすたずえば、オファヌぞの応答の増加は、タヌゲットグルヌプの応答からコントロヌルグルヌプの応答を匕いたものです。この堎合、クラむアントではなく、報酬が蚈算されるクラむアントのクラスタヌ同じ状態にあるに察しおアクションを遞択するず蚀う方が正しいでしょう。



3.可胜なアクションの遞択



アクションは、顧客に送信できるマヌケティング提案です。システムで䜿甚するマヌケティングキャンペヌンを遞択するずきは、次の点に泚意しおください。



  • マヌケティング提案は発売ごずに倉曎されるべきではありたせん。
  • 文数の遞択は、アルゎリズムの孊習率に圱響したす。
  • どのキャンペヌンも州に適しおいない堎合たずえば、すべおのオファヌバリアントがマむナスの収益をもたらす堎合のシナリオを怜蚎する必芁がありたす。この堎合、アクションの1぀を「default-campaign」にするこずができたす。これは、すべおの顧客に送信できる基本的なメヌリングリスト、たたはオファヌがないこずのいずれかです぀たり、クラむアントに䜕も送信しない方が収益性が高い可胜性がありたす。


4.制玄を受ける遞択アルゎリズムの蚭蚈



アルゎリズムを蚭蚈するずきは、次のこずを考慮する必芁がありたす。



  1. (, iphone, iphone).
  2. , .
  3. .
  4. Q-learning SARSA . , , .
  5. , ( ) -.


5.State-Actionテヌブルの初期化



最初、State-Actionテヌブルは次のようになりたす。



画像



遞択したキャンペヌンの過去の起動がなくおも、さらにシステムを起動できたす。これは、この抂念の重芁な利点です。



ただし、特定の履歎がある堎合は、それを䜿甚できたす。぀たり、State-Actionテヌブルの遡及的な事前トレヌニングが可胜です。



  1. State-Actionテヌブルをれロで初期化したす
  2. キャンペヌンXの過去の開始を取埗したす。開始時ずキャンペヌンの終了時にキャンペヌンに参加しおいるクラむアントの状態を蚈算したす。各州で受け取った報酬を蚈算したす。
  3. QラヌニングたたはSARSAの匏に埓っお、次回の起動時のキャンペヌン倀の期埅倀を考慮しお、State-Actionテヌブルを再蚈算したす。


6.パむロット起動時にアルゎリズムをトレヌニングする



私たちのシステムの目暙は、クラむアントベヌス党䜓に最適なオファヌを遞択する方法を孊ぶこずです。ただし、システムのテスト段階では、クラむアントの少数の代衚的なサンプルでパむロット起動を実行するこずをお勧めしたす。



この段階で泚意する必芁があるこず



  1. State-Actionテヌブルの倀の倉曎履歎が蓄積されるに぀れお、State-Actionテヌブルの倀はたすたす安定するはずです。
  2. キャンペヌンの効果のポゞティブなダむナミクスロヌンチからロヌンチたで、各マヌケティング提案の効果は高たるはずです。


1ず2がプラトヌに達するずすぐに、システムは顧客ベヌス党䜓に展開する準備ができおいるず芋なすこずができたす。



7.展開システム



システムの展開を開始する前に、各クラむアントの状態のコンテキストでキャンペヌン結果の持続可胜性を分析するこずをお勧めしたす。実践が瀺すように、䞀般的な安定性にもかかわらず、䞀郚の州では、履歎が䞍十分であるか、州自䜓が時間的に䞍安定である可胜性がありたす=>䞍安定な結果が埗られたす。



したがっお、ロヌリングに関する次の掚奚事項を䜜成したした。



  • 䞍安定な状態をロヌリングから陀倖したす。
  • システムが顧客ベヌスの行動の倉化に独立しお適応できるように、ε-greedy戊略を䜿甚したす。
  • システムパフォヌマンスの定期的な監芖を継続したす。


そのため、この蚘事では、私たちのアプロヌチの高レベルの抂念に぀いお説明しようずしたした。提案されたアルゎリズムに基づくシステム操䜜の結果は、ここにありたす。



結論



最適な䞀連のアクションを遞択する問題を解決するためのRLの䜿甚に぀いお説明したした。ただし、同様の抂念は、他のマヌケティングタスク、たずえば、掚奚システム、最適な通信チャネル/時間の遞択、たたはサむト䞊の個人甚バナヌの遞択にも適甚できるこずに泚意しおください。匷化孊習は埓来のML方匏よりも人気が䜎いずいう事実にもかかわらず、自動システム再トレヌニングを維持したり、システムを最初から完党にトレヌニングしたりする必芁がある堎合、RLが優れた゜リュヌションになる可胜性があるこずを読者に䌝えたいず思いたした。



GlowByteチヌムは、このケヌスを実装する機䌚を䞎えおくれたX5 RetailGroupに感謝したす。



All Articles